Aangemaakte reacties
-
AuteurBerichten
-
Het is een interessante ontwikkeling. Maar ik zou het nog niet willen gebruiken voordat meer duidelijk is wat Google hier mee gaat doen en wat het effect is voor je site.
Ik las net het artikel van Dr.Pete op SEOmoz (sorry fanboy) over dit onderwerp.
http://www.seomoz.org/blog/googles-disavow-tool-take-a-deep-breathIn enkele van de reacties stond iets waar ik nog niet over nagedacht had.
Als Google enkel de links weghaalt voor de site waar ze voor zijn opgegeven werkt het prima. Maar wat als Google ook naar de overlappende informatie gaat kijken? Ik bedoel wat als een site door verschillende site eigenaren als negatief wordt aangemerkt. Gebruikt Google die informatie dan om alle links die van deze site komen te devalueren? En wat is dan het omslagpunt en kan je hier dan weer misbruik van maken door een (groot) aantal van je domeinen te gebruiken?
En sites die deze feature gebruiken geven ook een signaal dat er link-building tactieken gebruikt zijn (misschien niet allemaal door hun zelf) die niet allemaal door de beugel gaan. Wat doet Google met deze informatie?
Een andere vraag die ik eerste duidelijker zou willen hebben is of je ook weer terug kunt. Ik weet dat Google er alles aan doet om het gebruik te ontmoedigen, maar wat als je een fout hebt gemaakt. Het beoordelen van sites die een negatieve invloed hebben is niet altijd even duidelijk. Helemaal niet als het om werkelijk tienduizenden linkende domeinen gaat.
Wauw, leuk, dank.
Nr 1381 in NL moet echter beter worden…Tips?Meer “followers”. Als je naar de top kijkt zie je dat ze allemaal duizenden volgers hebben.
http://www.circlecount.com/nl/profileslist/Er lijkt een “bugje” in te zitten. Joost de Valk staat 20e op de “profileslist” pagina en op zijn profiel staat 21e http://www.circlecount.com/nl/p/115369062315673853712
Voor de zoekmachines zet je dan een canonical naar een andere pagina (volgens stappen hierboven) zodat deze niet geïndexeerd word.
Een canonical is een suggestie voor Google voor pagina’s die exacte kopieën zijn van elkaar. Je kunt deze ook gebruiken om naar een ongeveer gelijke pagina te gaan, maar als je te vaak een canonical gebruikt naar een pagina die anders is dan stopt Google met het gebruiken van canonicals. Lijkt me dus niet de beste suggestie.
Persoonlijk zou ik ervoor kiezen om een “Dit product is niet meer beschikbaar” pagina in te schakelen met daarop verwijzingen naar andere (het liefst gerelateerde) producten die nog wel te verkrijgen zijn.
Dit lijkt me afhankelijk van de status code die je retourneert. Laat je de pagina gewoon een 200 http-status retourneren dan creëer je eigenlijk een soft-404. Google zal deze herkennen. Je kunt dan beter een harde 404 hebben. Die wordt tenminste “direct” uit de index gehaald.
Met de sites die ik beheer heb ik overigens met hetzelfde probleem te maken. Een bepaald type van onze pagina’s vervallen ook heel regelmatig. Ook wij hebben gedacht over het redirecten met een 301 naar andere soortgelijke pagina’s en andere overzichtspagina’s. Het belangrijkste aspect hier is: “wat verwacht de bezoeker” en “is de pagina waar naar toe geredirect wordt ook sterk genoeg om aan deze verwachting te voldoen”. Daarom zijn we nu een experiment gestart om Google maar helemaal weg te houden van deze pagina’s. Wij hebben bijvoorbeeld in onze data gezien dat deze pagina’s eigenlijk helemaal geen grote impact hebben op het organische verkeer. Dus waarom je druk maken om zulke pagina’s. Je kunt misschien beter deze pagina’s blokkeren en andere pagina’s maken rond dezelfde trefwoorden die wel “altijd” bestaan.
Per definitie zijn dit soort “trucjes” niet de beste oplossing. Daarnaast denk ik dat de prijs irrelevant is.
Waar het om gaat is om te weten op welke sites je links komen te staan. De vraag is hoe relevant deze sites zijn voor jou content? Ze zeggen verschillende Class-C netwerken, maar belangrijker zijn het Nederlandse Class-C’s? En als dit zo is gaan de sites over hetzelfde onderwerp als de pagina op jouw site waar naar toe gelinkt wordt? Zijn het sites die veel bezocht worden, etc.
Meer algemeen: Link-building gaat over creativiteit. De vraag die je jezelf kunt stellen: “Welke strategie zorgt ervoor dat mensen vanzelf jou site en content gaan delen met andere?”. Ik ben van mening dat er altijd een vorm te bedenken is. De beperking is de grootte van je doelgroep. Een andere vraag: “Voor wat voor content/sites heeft mijn informatie een toegevoegde waarde en wat kan ik leveren zodat die andere sites er over willen schrijven (en linken).”. Met creatieve zoekopdrachten in Google is het mogelijk om deze naar boven te halen.
Een belangrijke vraag is of de overgenomen domeinnaam ook de exacte bedrijfsnaam is? In dat geval lijkt het me dat je maar één keus hebt als het beleid is om de bedrijven ook volledig samen te voegen. Je wilt dat je website je bedrijf presenteerd. En de domeinnaam zou dan moeten volgen. Alle bezoekers via de oude site moeten dan met een 301 omgeleid worden naar een pagina met de informatie waar ze naar op zoek waren, maar ook waar je uitlegt dat er een andere bedrijfsnaam is.
Is het een domeinnaam met exacte zoekwoorden dan kan de beslissing anders zijn.
Daarom deel ik Glompie’s mening niet helemaal.
Twee sites aanhouden voor 1 bedrijf lijkt me verwarrend voor klanten
Het lijkt me af te hangen van de werkelijk doelgroepen en bedrijfsstrategie. Joostb zei het volgende:
Op zich zijn de sites complementair omdat de concurrent zich in een iets luxer segment beweegt dan de overnemende partij
Zijn er duidelijk verschillende doelgroepen waar je je producten aanbied dan zou je 2 sites kunnen houden waar ze beide op een verschillende doelgroep gericht blijven zijn. Voor een andere doelgroep kan bijvoorbeeld de vormgeving en de schrijfstijl anders zijn. Dit betekend uiteraard wel dat je veel van de teksten 2 keer moet schrijven en het is de vraag of je daar de middelen voor beschikbaar hebt en wilt houden.
Het is uiteraard ook mogelijk om dit in één website samen te voegen.
Op welke manier kan ik er nu het best voor zorgen dat de pagina kan worden verwijderd en dat Google deze OF uit de index haalt OF geen 404 produceert.
Even voor de duidelijkheid – Google produceert geen 404’s dat doet jou webserver.
Er zijn verschillende strategieën om veel wisselende content te gebruiken binnen zoekmachines zonder dat je alle SEO kracht verliest. Het is een beetje afhankelijk van de grote van je site en de manier hoe je bezoek nu omgaat met je site.
Een algemene tip onderzoek je Analytics eerst. Bekijk hoe het huidige bezoek je site bezoekt vanaf de zoekmachine bron. Het zegt namelijk veel over welke stap je zou moeten nemen.
Daarnaast is een belangrijk uitgangspunt de bezoeker. De oplossing moet er één zijn die er voor zorgt dat je bezoek relevante content te zien krijgt die klopt bij hun verwachting. Daarom is het te rechtvaardigen om iets met die pagina’s te doen. Een 404 is dat zeker niet. Je wilt niet een bounce rate probleem hebben of creëren met de oplossing die je uitrolt.
1) Dit soort pagina’s richten zich normaal gesproken op de extreme long-tail en soms is het beter om ze helemaal buiten de zoekmachines te houden. Je beoordeelt dit door te kijken hoeveel verkeer er vanaf zoekmachines op deze pagina’s komen. Dit lijkt in tegenspraak met wat veel SEO specialisten zeggen “veel wisselende content is key”, maar het verhogen van de relevantie en kwaliteit van een site kan soms zwaarder wegen.
2) Je kunt de verlopen pagina’s met een 301 redirecten naar een relevante overzichtspagina en dan eventueel een melding plaatsen dat de gezochte pagina niet meer bestaat.
3) Een soortgelijke oplossing als de vorige, maar vooral als je niet voldoende verschillende overzichtspagina’s hebt. Je kunt een “tijdelijke” pagina tonen die een 200 retourneert waar je een noindex,follow op plaatst met relevante content en een melding dat de gezochte woning niet meer bestaat, maar dat de site soortgelijke woningen aanbied in dezelfde omgeving. Google kan dit soort pagina’s echter gaan zien als een “soft 404”. Deze pagina’s kan je langzaam uitfaseren, zodat je een controleerbare hoeveelheid van deze pagina’s houd.
Beste oplossing voor de structuur is een folder binnen het domein.
http://www.seomoz.org/q/link-juice-from-subdomainIk denk echter dat als je Facebook inzet met alleen een SEO gedachte dat dit niet echt gaat helpen. Google kent de sociale netwerken en bepaald de link-waarde op een andere manier voor deze sociale netwerken. Er wordt veel meer naar sociale aspecten gekeken, zoals de hoeveelheid fans, het delen en liken van de content (Facebook) of het aantal volgers en het aantal retweets (Twitter), om de waarde van een link te beoordelen.
Het “herplaatsen” van content op Facebook met daarin een linkje is daarom niet per definitie een sterke link.
Voor Link-building is het tegenwoordig belangrijk om na te denken over de reden van de link. Plaats je een link alleen voor een extra link, of is er ook een meerwaarde voor bezoekers van de site waar deze link opstaat. Uiteraard is “meerwaarde” relatief en op verschillende manieren uitlegbaar.
Ik ken het probleem. In de markt waarin ik actief ben is dit in vele landen ook een groot probleem. Het lijkt erop dat Google hiervan bewust is en dat ze het willen aanpakken. Enkele dagen geleden heeft Matt Cutts hierover getwitterd.
Hij zei “Just fyi, we rolled out a small algo change this week that improves the diversity of search results in terms of different domains returned”.
Op dit moment lijkt echter dat het “probleem” niet verbeterd is, maar er zijn wel berichten dat bij sommige sites de traffic veranderd is.
http://searchengineland.com/google-update-improves-diversity-of-domains-133363
http://www.seroundtable.com/google-panda-four-15705.html24 augustus 2012 om 2:08 pm In reactie op: Zoekwoorden die niet zichtbaar zijn voor gebruiker… hoe? #27399Interessant probleem 🙂
Ik had meteen de gedachte dat je je op glad ijs begeeft met deze probleem stelling. Het past niet binnen de Google richtlijnen. Google gaat dit ook tegen met de vele algoritme aanpassingen:
hoe kan ik de verkeerd gespelde woorden voor google zichtbaar maken zonder dat de eindgebruiker ze tegenkomt op de website
De gedachte die ik kreeg om dit probleem op te lossen was door te kijken of op welke manier het haalbaar is om user-generated pagina’s in je site te hebben. In deze pagina’s zullen dezelfde schrijffouten kunnen ontstaan op een natuurlijke manier.
Eén oplossing die zeker ook in het grijze gebied zit is link-building te doen en voor enkele van de links een anchor text te gebruiken met de verkeerd getypte bedrijfsnaam.
Verder denk ik dat het zinvol is om je te verplaatsen in de mensen die zoeken. Waar zijn ze precies naar opzoek als ze die onjuiste bedrijfsnaam opgeven? Zoals jij het uitlegt is het goed mogelijk dat ze op zoek zijn naar de “populaire restaurants”.
Als laatste: het gebruik van meta keywords is achterhaald. Alle zoekmachines van naam hebben al jaren geleden aangegeven dat ze deze informatie op geen enkele manier gebruiken voor het beoordelen van de inhoud van een pagina. Ze zijn gewoon te spam gevoelig.
Met een tool als Xenu kan je je eigen site crawlen. De tool geeft je aan op welke diepte een pagina is en hoeveel ingaande en uitgaande links er staan. Je ziet ook meer detail informatie zoals titel en bestandsgrootte. Ik gebruik het regelmatig om een site van 50000+ pagina’s te crawlen.
Het is op dit moment veel te vroeg om conclusies te trekken.
Daarnaast zijn SEO en een datalimiet los van elkaar staande zaken. Een datalimiet heeft meestal te maken met de hosting provider en de website ruimte en met geld kan je dit eenvoudig oprekken. SEO heeft te maken met het optimaliseren van je site zodat je de best converterende traffic van jou doelgroep naar je site haalt.
Zeker één van de SEO doelstellingen is het vergroten van het verkeer, maar dat is zeker niet de belangrijkste. Je wilt niet veel verkeer (punt). Je wilt verkeer waar je geld (als dat je doel is met de site) aan kunt verdienen. Geld kan je ook lezen als ‘inschrijvingen’, ‘leads’, banner impressies, enz.
Het verbaasd me overigens dat je de analytics bij je SEO bedrijf moet opvragen. Dit hoort volledig open te zijn voor zowel jou als voor hun. Sterker nog jij hoort hun toegang te geven en niet andersom :). Op die manier kan je het beste samenwerken.
Misschien moet je even de inhoud van je .htaccess bestand laten zien. Het maakt het gemakkelijker om je een advies te geven.
Welke redirect methode gebruik je? Ik neem aan dat je iets in je htaccess file hebt staan die de redirects afdwingt? Of zou moeten af dwingen.
Ik krijg bij beide een 404.
Nu heb ik al veel van die foutmelding , dus de 404 meldingen in mijn htacces bestand gezet met een redirect … Alleen nu blijkt dat niet alle redirects werken ..
Zou je een voorbeeld kunnen geven van een URL die bij Google bekend is en die je naar een andere pagina wilt laten redirecten? Ik zou dus graag 2 URL’s willen zien één die bij Google in de index staat en de daarbij horende URL waar nu je content staat.
zit er bijvoorbeeld een max aan redirect aan vast of …
Beetje afhankelijk met wat je met “een max aan redirects” bedoelt. Heb je het hier over het aantal verschillende URLs wat geredirect wordt? Of heb je het hier over het aantal stappen tussen de oude en nieuwe URL.
In het laatste geval is er wel een theoretische limiet (althans voor SEO). Bij elke redirect verlies je een beetje SEO juice. En na een aantal redirects ben je deze volledig kwijt. Je wilt dus niet dat er meerdere redirects plaatsvinden voordat je bij de juiste pagina aankomt.
Voor wat betreft het aantal pagina’s wat geredirect wordt heb ik nog nooit een limiet gezien. Ik beheer de SEO voor een aantal sites met een groot aantal pagina’s en we redirecten ook wel eens hele domeinen zonder problemen. Overigens altijd maar´één of maximaal 2 stappen per redirect.
-
AuteurBerichten
Gerelateerde berichten:
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…