Aangemaakte reacties
-
AuteurBerichten
-
Komt toch grotendeels overeen met wat ik zei, alleen wat minder uitgebreid?
(Zou wel een slechte leraar zijn, want dingen uitleggen is niet m’n ding:eek:)Je hebt inderdaad gelijk dat de punten veel op elkaar lijken. Het was misschien de ‘sugar coating’ eromheen waardoor ik er overheen las. Mijn excuses.
Oke nu kan ik het niet meer aanzien.
Gebruik aub de verschillende termen correct.
SEO = Search Engine Optimizations, alles wat te maken heeft met het organische ranken van een pagina of site.Alle overige zaken zoals social media, adwords en dergelijke behoren tot het vakgebied Internet Marketing waartoe ook de SEO behoort.
Internet Marketing = Het promoten van producten en diensten m.b.v. online promotie technieken. Of dit nu betaald is in de vorm van Adwords, organisch in de vorm van SEO of sociaal in de vorm van social media.De 3 evaluatie criteria of meetbare parameters voor een SEO campagne zijn:
– Ranking posities per keyword
– Organische bezoekerwinst/verlies per keyword
– Conversies per keywordIn het geval dat er te veel pagina’s zijn om handmatig toe te voegen om te redirecten kan je ook de 404 pagina latern redirecten naar bijv. een zoekpagina met het keyword waarop de gebruiker op de site kwam of gewoon redirecten naar de homepage.
Dan zal best zo zijn maar zoals Yargon (met maar 1 testcase) al aangeeft is dat het niet of kosten ineffectief is om te weten te komen of een link wel of niet organisch of kunstmatig is. Tuurlijk is het zo dat in de Utopie van Google het allemaal niet mag en kan, echter kunnen ze er simpelweg niet voor straffen omdat men niet weet of het nu wel of niet kunstmatig is, enkele extreme gevallen daargelaten.
Google heeft dit jarenlang proberen op te lossen door te spelen met de linkwaarde van een link en zodoende dus niet door direct te straffen maar een door minder grote of zelfs zeer kleine waarde aan een link te geven. Dit heeft gedeeltelijk gewerkt aangezien de zoekresultaten veel schoner en beter zijn dan in de eerdere dagen van Google als zoekmachine echter nog niet goed genoeg.
Om dit op te lossen zijn ze o.a. aan het werk geweest en nog steeds aan een soort van sociale regulatie zoals te lezen valt in een patent wat Google in 2006 heeft ingedient: Search result ranking based on trust – Google Patents
Dergelijke patenten zijn interessant om door te lezen aangezien daar vaak meer waarheid in staat dan wat een Matt Cutts ooit zal zeggen.Google komt er steeds meer achter dat sociale regulatie door de populatie zelf een zeer sterke indicatie geeft voor de relevantie van een pagina of site, maar tegelijkertijd beseffen ze ook dat dit weer een deur open zet voor potentieel misbruik. Vandaar dat ze aan de hand van ‘misinformed’ marketing en educatie iedereen graag vertellen hoe ze moeten werken zodat dit in hun werelddoel past.
Ja je hebt gelijk dat als je precies de grillen van Google volgt dat dit op de langere termijn ‘veiliger’ is. Maar in die uitspraak zit wel 1 grote impliciete premisse en dat is dat je er van uitgaat dat Google dit probleem het kunnen differentiëren tussen kunstmatige en natuurlijk kan oplossen. En in een samenleving waarbij automatisering hand in hand gaat met human development acht ik dit alles behalve waarschijnlijk.Daarnaast geef het volgens de regels spelen ook geen garantie, aangezien de spelregels van het spel constant veranderen. Wel erken ik dat de grenzen opzoeken van de algoritmes en andere maatregelen vaan risicovoller is. Maar ook dat risico moet men in context zien een bedrijf opstarten of andere dingen ondernemen in het leven brengt ook een risico met zich mee maar dat weerhoudt ons ook niet. Ik zeg hiermee niet dat risico nemen goed is, ik zeg alleen risico er in ’the bigger picture’ gewoon bij hoort.
Zo heb ik mijn 10 jaar Internet Marketing ervaring nog steeds uitstekende behulpzame websites in mijn beheer die middels, volgens het in dogma’s denkende Nederland, zogenaamde ‘verkeerde’ technieken zijn gepromoot. Deze websites staan nog steeds sterk, dus wat is een lange termijn? 20 jaar? 100 jaar? In mijn optiek is de levensduur van een website nooit lang te noemen aangezien de techniek en de spelregels razend snel blijven veranderen in die tijd.
Note:
Ik pretendeer niet alles te weten, echter ik plak geen etiket op handelingen. Ik zie een vraag op de markt en vul deze vraag op met aanbod zonder waarde oordeel. Ik bied dan ook zowel Whitehat als Blackhat linkbuilding aan voor cliënten, de cliënt dient zelf een oordeel te vellen of zij daar wel of niet gebruik van maken. Wat dat betreft ben ik eerder een homo economicus dan een homo ethicus.Uiteraard in de utopie van Google zou dit niet mogen kunnen.
De praktijk is dat veel grote bedrijven zowel internationaal als nationaal gezien dergelijke satelietsites bijna standaard aanmaken. Iedere satelietsite heeft hierbij vaak een eigen C of A class IP, verschillende whois gegvens en vaak ook verschillende naamservers.
Hierdoor wordt het heel moeilijk voor Google en andere zoekmachines om te bepalen of deze nu wel of van dezelfde eigenaar.
Het gevolg is dat ieder groot bedrijf een eigen netwerk van meer dan honderden vaak duizenden satelietsites heeft die ze SEO technisch gebruik voor hun eigen diensten en/of producten.Kortom ja het werkt, zorg wel dat je de sporen wist.
Vindt Google het leuk? Nee niet bepaald.
Is het dan niet risicovol? Als je het goed uitvoert is het risico laag maar nog steeds hoger dan het niet gebruik maken van deze techniek.
Waarom wordt het dan toch gedaan? Het werkt en is relatief goedkoop als je veel properties moet promoten. Daarnaast weet iedere linkbuilder dat diversiteit in backlinksoort zeer belangrijk is. Mocht 1 linksoort of netwerk wegvallen heb je nog een buffer/backup.Ik bedoel dat je met long tail keywords vaak minder competitie hebt en daar dus makkelijker voor kan ranken. Daarnaast is mijn ervaring dat bijvoorbeeld ‘rode jurk kopen’ beter convert dan ‘jurk’. Nu is het zo dat je in nederland niet zo snel dergelijke letterlijke long tail keywords vindt maar er zitten soms aardig wat goudmijntjes tussen.
Het toevoegen van deze long tail keywords is echter alleen interessant als mensen er ook daadwerkelijk op zoeken, vandaar dat ik het heb over effectieve winst.
Ik zeg dat het geen drol uit maakt wat de geografische locatie is van de linkbuilder.
Alleen de geografisch locatie of IP van de site waar vanaf wordt verwezen maakt uit.HMA is alleen handig als proxy voor werk waar IP gebaseerde limieten voor gelden.
Je kan de vraag ook anders stellen:
“Heeft het zin om long(er) tail keywords te gebruiken?”
Het antwoord op die vraag is bijna altijd volmonding JA. Vaak wordt er wel gekeken naar de effectieve exacte trafficwinst die je kan behalen uit de long tail keywords, het heeft namelijk minder zin als niemand er op zoekt.Ik denk dat grote bedrijven niet geheel begrijpen hoe ze optimaal van het internet gebruik kunnen maken. Het is mooi dat men de website vindt als ze de merknaam invoeren echter loop je zo veel inkomsten mis zoals jij al aangeeft op andere zoekwoord combinaties.
Een bedrijf die niet alle manieren van marketing toepast mist gewoon een groot gedeelte ‘would be’ inkomsten. Grote bedrijven gebruiken vaak inderdaad Adwords of andere PPC, PPV of media buy platformen. Niet alleen op internet maar ook op TV en ik denk dat daar de vork in de steel steekt. De overstap van dergelijke platforms van TV –> Internet is minder groot en anders dan de overstap naar organische zoekresultaten immer die heb je (nog) niet op tv.
Kortom is het zinvol? JA, in de meeste gevallen zeker als je een bedrijf bent met een groot budget heeft het zeker veel zin.
Waarom gebeurt het dan niet?
Vaak ligt dat aan 1 van de volgende dingen:
* Na onderzoek blijkt dat marketing middels SEO en dus organische zoekresultaten niet of minder rendabel is voor het bedrijf
* Het is anders dan normaal, ze zijn het niet gewend en/of geloven er nog niet in. Ik heb vaak genoeg met bedrijven gesproken die in dogma’s blijven hangen.
* Het is moeilijk toepasbaar voor hun bedrijfsconcept. Het vindbaar zijn is één ding, het effectief gebruik maken van het gevonden worden is een ander.Er zijn vast nog wel andere redenen te bedenken. Maar als ik het budget had van dergelijke grote bedrijven dat wist ik het wel.
Ik lees nergens dat Artikel links hierdoor minder waard zouden zijn. Het gaat hier over het fenomeen dat artikel directories ranking verliezen en dus verkeer en revenue mislopen. Het enige wat ik kan bedenken is dat de PR van dergelijke directories misschien daalt. Echter dat heeft vrij weinig invloed op de artikel backlinks aangezien de paginas waar deze op staan meestal toch geen PR hebben.
Dit lijkt mij meer een effectieve maatregel van Google om mensen naar Google platformen te krijgen zoals Blogger, Youtube en dergelijk aangezien deze geen last hebben van de Panda changes. Zo kan Google meer geld ontvangen middels hun adwords/adsense programma.
Aan het eind van de dag blijft Google ook gewoon een bedrijf.In mijn ervaring met meer dan 120+ linkbuilding projecten is die 20% wel erg voorbarig ook al is het een stelregel. In de meeste gevallen verdeel ik de anchortekst in een 50/20/10/…. verhouding.
Waarbij 50% het belangrijkste rankende keyword en de overige keywords longtail varianten zijn of LSI keywords.
Mochten er meerdere ‘belangrijke’ zoektermen zijn dan verschuift de verhouding iets naar voren, denk aan 30/30/20/..,Het lijkt mij voornamelijk belangrijk om te variëren, zodat de linkbuilding natuurlijk overkomt. Immers als men naar je site/pagina linkt dan is de kans vrij klein dat ze dat allemaal met dezelfde anchortekst doen.
Je haalt hier enkele dingen door elkaar wat je vraagstelling niet duidelijker maakt.
Het plaatsen van een artikel op een artikeldirectory/site met een verwijzing naar je website is een uitstekende manier om te linkbuilden. Het verkrijgen van meerdere links van 1 geografische locatie is echter verre van optimaal. D.w.z. het is minder effectief meerdere verwijzingen vanaf hetzelfde IP naar je website aan te maken.
Het gaat dus niet om jouw IP, maar om de IP van de locatie waar de backlink naar je website staat.
2 september 2011 om 4:30 pm In reactie op: Hoe lang duurt het in de regel voordat Google links ziet? #22624Een link wordt pas ‘gezien’ door een zoekmachine wanneer deze is bezocht door de Crawlers van die zoekmachine. Bij populaire, drukbezochte of hoge PR pagina’s gebeurt dit vaker omdat er vaak meer links naar wijzen en dus de crawler visits toenemen.
Kortom er is geen standaard termijn waarbinnen een link crawled wordt. Wel kan je de links in kwestie onder de aandacht brengen door andere links er naar toe te bouwen en/of te pingen. Binnenkort lanceer ik een dienst die juist dit onderdeel, het onder de aandacht brengen van links en backlinks, zal verzorgen.
Eventueel kan ik je een test run aanbieden.Ja, Ja en Ja.
Ik lees dagelijks meer dan 10 SEO en Internet Marketing gerelateerde forums waaronder inderdaad BHW.
De dergelijke plan van aanpak hanteerde ik 6 jaar geleden toen ik nog maar net begon, terwijl de post daarover in BHW uit 2009 stamt. Maar inderdaad het is altijd verstandig om op de hoogte te blijven van de laatste ontwikkelingen op je vakgebied. Hierdoor blijf je voor op de competitie die dit niet doet. -
AuteurBerichten
Gerelateerde berichten:
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…