SEO training-, kennis- en adviescentrum › SEO forum › SEO vragen en discussies › Linkfarm of Googlevriendelijk?
- Dit onderwerp is leeg.
-
AuteurBerichten
-
-
13 september 2011 om 2:28 pm #22647
Wijze Seoguru’s, bij deze zou ik jullie graag het volgende willen vragen:
Veel grote sites (zoals bijvoorbeeld pararius voor de huurwoning markt) zijn aan het linkbuilden door naar de hoofdsite te linken met een heleboel kleine sites met dubieuze content. Het is vrij duidelijk dat men deze sites zelf in beheer heeft, en dat ze alleen vanuit SEO oogpunt een echte functie hebben. Soms staat er ook iets aan informatie op waar een gebruiker wat aan zou kunnen hebben, maar meestal niet:).
Al deze sites linken wel naar de hoofdsite, maar de hoofdsite linkt NIET terug. Voor een linkfarm moet dit wel lijkt mij toch? Is er bij zo’n constructie (die mij overigens wel een hoop werk lijkt!) nog een gevaar dat Google je hier strafpunten voor gaat geven? Of is dit, helemaal als je verschillende servers gebruikt, 100% veilig?
-
13 september 2011 om 2:58 pm #26724
Heel goede vraag die je hier stelt.
Als de kleine sites (noem het een soort mini-sites) waarde bevatten voor gebruikers,
zal het geen probleem zijn om deze webpagina’s online te houden en daar vandaan te linken naar een homepage. De webpagina’s moeten echter wel nuttige inhoud bevatten voor gebruikers.Aan de andere kant kan je stellen dat het tegen de richtlijnen van Google is om activiteiten te ontplooien welke doelbewust worden ingezet om zoekmachines om de tuin te leiden. Dat is beslist niet toegestaan.
Daarnaast kan ik me voorstellen dat, als dit soort dingen (aanmaken extra sites en massaal linken naar eigen hoofdsite) stelselmatig gebeurt, er bij Google een rode vlag omhoog gaat.
De volgende vraag is passend in deze situatie:
“Hebben mijn gebruikers hier wat aan?”
Je hebt ook van die pagina’s die aangemaakt worden, specifiek gericht op één zoekterm,
bijvoorbeeld “huis kopen maastricht”, “huis kopen groningen” etc. etc.
Dat soort praktijken zijn wel degelijk tegen de Google guidelines!Laatstgenoemde pagina’s zijn de Doorway Pages:
“Doorway-pagina’s zijn meestal grote groepen pagina’s van lage kwaliteit waarin elke pagina is geoptimaliseerd voor een specifiek zoekwoord of woordgroep. In veel gevallen worden doorway-pagina’s geschreven om een goede positie te verkrijgen voor een bepaalde woordgroep en gebruikers vervolgens door te sturen naar één bepaalde bestemming.
Of ze nu voor meerdere domeinen worden gebruikt of binnen één domein zijn geplaatst, doorway-pagina’s zijn meestal frustrerend voor gebruikers en schenden onze Richtlijnen voor webmasters.”
(bron: Cloaking, sneaky Javascript redirects, and doorway pages – Webmaster Tools Help)
Is hier sprake van in deze situatie?
Verder staat er het volgende omschreven in de Google guidelines:
“Probeer niet via allerlei trucjes uw positie in de zoekresultaten op te schroeven. Een goede vuistregel is dat u zonder schuldgevoel zou moeten kunnen uitleggen wat u heeft gedaan ten aanzien van concurrerende websites. Andere nuttige vragen waarover u kunt nadenken zijn: ‘Hebben de bezoekers van mijn site hier wat aan?’ en ‘Zou ik dit ook doen als er geen zoekmachines bestonden?’
Zegt genoeg lijkt me. Geen fratsen uithalen, want Google zal je vroeg of laat bestraffen.
Mogelijk zelfs zonder dat je het opmerkt, bijvoorbeeld door de trust-score te verlagen.Mocht je er behoefte aan hebben, kun je altijd een spam report submitten naar Google om de situatie te laten bekijken.
-
14 september 2011 om 5:07 pm #26730
Uiteraard in de utopie van Google zou dit niet mogen kunnen.
De praktijk is dat veel grote bedrijven zowel internationaal als nationaal gezien dergelijke satelietsites bijna standaard aanmaken. Iedere satelietsite heeft hierbij vaak een eigen C of A class IP, verschillende whois gegvens en vaak ook verschillende naamservers.
Hierdoor wordt het heel moeilijk voor Google en andere zoekmachines om te bepalen of deze nu wel of van dezelfde eigenaar.
Het gevolg is dat ieder groot bedrijf een eigen netwerk van meer dan honderden vaak duizenden satelietsites heeft die ze SEO technisch gebruik voor hun eigen diensten en/of producten.Kortom ja het werkt, zorg wel dat je de sporen wist.
Vindt Google het leuk? Nee niet bepaald.
Is het dan niet risicovol? Als je het goed uitvoert is het risico laag maar nog steeds hoger dan het niet gebruik maken van deze techniek.
Waarom wordt het dan toch gedaan? Het werkt en is relatief goedkoop als je veel properties moet promoten. Daarnaast weet iedere linkbuilder dat diversiteit in backlinksoort zeer belangrijk is. Mocht 1 linksoort of netwerk wegvallen heb je nog een buffer/backup. -
16 september 2011 om 12:16 pm #26735
Dank voor jullie reacties, het is mij veel duidelijker.
Er schoot mij nog een ding te binnen terwijl ik jullie reacties lees:
Hoe zit dit bijvoorbeeld met Coolblue, die laptopshop , beamershop etc. ook allemaal naar elkaar laat linken? Dit zijn een soort doorway pages (in de zin dat de domeinnaam specifiek afgestemd is op keywords), maar dan natuurlijk super functioneel. In plaats van een hoop inlinks van hetzelfde domein, hebben ze nu veel inkomende links van verschillende sites omdat elke site naar elkaar linkt.Vanuit de waarde voor bezoekers is dit zeker toegestaan.
Aan de andere kant, als je strak hanteert “zou ik dit ook doen als er geen zoekmachines waren” dan kun je hier natuurlijk negatief op antwoorden.Ben benieuwd naar jullie mening.
Bedankt alvast
Alette -
19 september 2011 om 10:04 pm #26737
Volgens mij zul je het op den duur afleggen….
Als de algoritmes worden aangepast, en zodoende strafpunten makkelijker gegeven worden….Het onderzoek van Yargon geeft een verhelderend beeld…
In eerste instantie lijkt het dus te werken, maar op den duur? -
20 september 2011 om 9:39 am #26739
Dan zal best zo zijn maar zoals Yargon (met maar 1 testcase) al aangeeft is dat het niet of kosten ineffectief is om te weten te komen of een link wel of niet organisch of kunstmatig is. Tuurlijk is het zo dat in de Utopie van Google het allemaal niet mag en kan, echter kunnen ze er simpelweg niet voor straffen omdat men niet weet of het nu wel of niet kunstmatig is, enkele extreme gevallen daargelaten.
Google heeft dit jarenlang proberen op te lossen door te spelen met de linkwaarde van een link en zodoende dus niet door direct te straffen maar een door minder grote of zelfs zeer kleine waarde aan een link te geven. Dit heeft gedeeltelijk gewerkt aangezien de zoekresultaten veel schoner en beter zijn dan in de eerdere dagen van Google als zoekmachine echter nog niet goed genoeg.
Om dit op te lossen zijn ze o.a. aan het werk geweest en nog steeds aan een soort van sociale regulatie zoals te lezen valt in een patent wat Google in 2006 heeft ingedient: Search result ranking based on trust – Google Patents
Dergelijke patenten zijn interessant om door te lezen aangezien daar vaak meer waarheid in staat dan wat een Matt Cutts ooit zal zeggen.Google komt er steeds meer achter dat sociale regulatie door de populatie zelf een zeer sterke indicatie geeft voor de relevantie van een pagina of site, maar tegelijkertijd beseffen ze ook dat dit weer een deur open zet voor potentieel misbruik. Vandaar dat ze aan de hand van ‘misinformed’ marketing en educatie iedereen graag vertellen hoe ze moeten werken zodat dit in hun werelddoel past.
Ja je hebt gelijk dat als je precies de grillen van Google volgt dat dit op de langere termijn ‘veiliger’ is. Maar in die uitspraak zit wel 1 grote impliciete premisse en dat is dat je er van uitgaat dat Google dit probleem het kunnen differentiëren tussen kunstmatige en natuurlijk kan oplossen. En in een samenleving waarbij automatisering hand in hand gaat met human development acht ik dit alles behalve waarschijnlijk.Daarnaast geef het volgens de regels spelen ook geen garantie, aangezien de spelregels van het spel constant veranderen. Wel erken ik dat de grenzen opzoeken van de algoritmes en andere maatregelen vaan risicovoller is. Maar ook dat risico moet men in context zien een bedrijf opstarten of andere dingen ondernemen in het leven brengt ook een risico met zich mee maar dat weerhoudt ons ook niet. Ik zeg hiermee niet dat risico nemen goed is, ik zeg alleen risico er in ’the bigger picture’ gewoon bij hoort.
Zo heb ik mijn 10 jaar Internet Marketing ervaring nog steeds uitstekende behulpzame websites in mijn beheer die middels, volgens het in dogma’s denkende Nederland, zogenaamde ‘verkeerde’ technieken zijn gepromoot. Deze websites staan nog steeds sterk, dus wat is een lange termijn? 20 jaar? 100 jaar? In mijn optiek is de levensduur van een website nooit lang te noemen aangezien de techniek en de spelregels razend snel blijven veranderen in die tijd.
Note:
Ik pretendeer niet alles te weten, echter ik plak geen etiket op handelingen. Ik zie een vraag op de markt en vul deze vraag op met aanbod zonder waarde oordeel. Ik bied dan ook zowel Whitehat als Blackhat linkbuilding aan voor cliënten, de cliënt dient zelf een oordeel te vellen of zij daar wel of niet gebruik van maken. Wat dat betreft ben ik eerder een homo economicus dan een homo ethicus. -
20 september 2011 om 11:32 am #22648
Goede uitgebreide reactie, en gezien je ervaring met deze technieken zul je ongetwijfeld een punt hebben….
Maar ben misschien wel gewoon “te bang” om de regels (in de online marketing dan in dit geval:D) te overtreden.Het heeft er voor mij ongetwijfeld mee te maken, dat ik slechts werk met enkele bedrijven, waarbij sommigen het gewoon al goed doen…
Het risico hierbij te lopen een penalty te krijgen, is mij het gewoonweg niet waard…Voor nieuwe bedrijven is dit natuurlijk anders, daarom zal de situatie, zoals jij het uitlegt, per bedrijf (en per persoon) erg verschillend zijn denk ik…. Temeer omdat je ook al aangeeft dat je de klant de keuze laat, op welke manier zij het willen doen…
-
-
AuteurBerichten
Je moet ingelogd zijn om een antwoord op dit onderwerp te kunnen geven.