Aangemaakte reacties
-
AuteurBerichten
-
Je hoeft Google maar 1x te vertellen waar je sitemap staat.
Ik doe het altijd via webmastertools maar ik denk niet dat het uitmaakt.Hi,
Ik heb er laatst het volgende over geschreven op m’n eigen site:
Wat tenslotte opvalt is dat http://www.hoofdzoekwoord.nl wel erg vaak bovenaan in Google staat. Volgens mij komt dit niet alleen omdat dat kostbare domeinen zijn waar over het algemeen door de eigenaren veel aan SEO op gedaan wordt. Maar ook doordat het vaak de oudere namen zijn en omdat zo’n domein afgezien van al de andere factoren gewoon hoger gewaardeerd wordt (relevantie).
Misschien kun je er eentje verzinnen die en makkelijk te onthouden is en een zoekwoord bevat. debananenwinkel.nl of zoiets.
🙂
10 januari 2011 om 10:47 pm In reactie op: Oude urls verlinken om een 301 redirect te versnellen #22154Hi,
Als ik ’t voor ’t zeggen had zou ik dat ook hebben gedaan maar ik heb over de content weer niks te zeggen. Heb ze wel gewaarschuwd maar de “skateboards” moesten allemaal op 1 pagina.
Maar als ik ’t goed begrijp redirect je dus nooit een pagina die niet op de nieuwe content en title lijkt?edit: Ik las net ergens dat je beter 10 oude pagina’s naar 1 nieuwe kunt redirecten als Google 1 404 voorschotelen.
Klinkt voor mij ook wel logisch Google houdt niet zo van dode links.
Dus ik ben weer helemaal om. Heb net zelfs de geïndexeerde printerpagina’s zitten redirecten.9 januari 2011 om 6:59 pm In reactie op: Oude urls verlinken om een 301 redirect te versnellen #26129Ja ok, je bedoeld de vervallen pagina’s hoop ik.
De urls die moeten redirecten ga ik niet blokkeren of deleten. Ik kan dat wel doen maar dan gaat de opgebouwde waarde van de oude link nooit mee naar de nieuwe.’t Is eigenlijk ook gewoon bagger als verschillende goed scorende pagina’s samengevoegd worden tot 1 nieuwe pagina. Of zou jij die allemaal redirecten naar dezelfde?
9 januari 2011 om 2:54 pm In reactie op: Oude urls verlinken om een 301 redirect te versnellen #26126Hoi,
Ik had dit gelezen. En ’t leek me een vrij logisch verhaal.
1/3 van de site zijn volledig nieuwe pagina’s. (staat allemaal in de xml sitemap).
1/3 zijn oude die vervangen zijn. (hebben een permanente redirect, hoop ik)
en 1/3 is vervallen. (deze heb ik geblocked met robots.txt)Ik heb ’t verder nog nooit meegemaakt dat ik ze redirect en dat de oude én de nieuwe url in de index worden getoond. ’t Ziet er nu dus wel uit als duplicate content.
Enigste verschil is dat er nu RP staat in httpd.ini wat normaal 301 is in .htaccessMaar………… zoals ik het zie zijn dit geen “echte” fysieke pagina’s
Ik zie niet wat jij ziet maar Google ziet gewoon wat jij ook ziet als je beeld bron of view source doet. Maakt niet uit welke pagina je neemt.
Misschien snap ik niet wat je aan het maken bent geweest, kan ook.
Als je bij iedere pagina dezelfde hoofdpagina blijft zien heb je wel een probleempje gecreëerd.Ik heb er laatst ook eentje gedaan en had geen enkele backlink nodig naar die places pagina.
Dus daar zal het niet aan liggen. Wat me wel een probleem lijkt is dat je nauwelijks backlinks naar je website zelf hebt. Dus mij lijkt dat je geen vermelding krijgt voordat je site een beetje populair is en op verschillende plaatsen op het net gelinkt wordt.Staat ook in de help:
Word een favoriet bedrijf op Google.
* We identificeren de populairste lokale bedrijven op basis van het aantal Google-gebruikers dat heeft gezocht naar informatie over een bedrijf, naar een routebeschrijving naar het bedrijf, enzovoort. U kunt deze gegevens over hun bedrijf verkrijgen nadat ze hun gratis vermelding hebben geverifieerd op Google Places with Hotpot.
Of je nu via php een stuk database (mysql) een .txt, een .html of een Exelbestandje include maakt denk ik niets uit. Het gaat er voor Google enkel om wat er aan tekst, links en tags in de broncode van je nieuwe pagina’s komt te staan. Dus als er teksten uit Exel bestanden komen en die zien er in de bron hetzelfde uit als op je oude pagina’s lijkt me dat geen enkel probleem.
Belangrijker is dat je de oude pagina’s op de juiste manier redirect naar de nieuwe zodat de bestaande waarde ook goed doorgegeven wordt.
Ik zou de affilatielinks eraf halen daar heb je met 30 bezoekers toch niks aan, werkt hooguit averechts. En als je ze wilt laten staan zou ik ze allemaal van nofollow voorzien.
Bedankt voor je antwoord.
’t is wel lache hoe ze die site hebben gemaakt. Een site in frames verwijzend naar een xml sitemap waarvan de urls verwijzen naar een andere site op dezelfde domein. Die 2e site is nagenoeg identiek qua inhoud. En alle page titles in beide sites zijn hetzelfde.
Misschien idd. gewoon proberen hem terug te krijgen in Google. Ik ben wel benieuwd hoe lang dat gaat duren.
Datum registratie is trouwens 2007-10-18 en een stuk of 40 matige backlinks.
Voor de domeinnaam zou ik altijd het hoofd zoekwoord erin verwerken. Ideaal lijkt me dan bananenkopen.nl mits die vrij is.
Wat ik met een nieuwe site niet teveel zou doen is op de bananen gaan optimaliseren. Hiermee kun je beter wachten tot je pagina’s een beetje gewicht en traffic hebben. Dus beginnen met titels als : Lekkere bananen en kokosnoten uit Breda. Pas later kun je proberen om op enkel “bananen” bovenaan te komen in Google.
Nu is 18.000 niet zoveel dus zou je vrij snel al op ‘bananen’ kunnen gaan mikken. Als je concurrentie niet al te hoog is tenminste.21 december 2010 om 6:29 pm In reactie op: Wegvallen resultaten in Google na stoppen samenwerking #26092Het lijkt me sterk dat ie straks niet meer te vinden zou zijn.
Maar als je zo’n antwoord gemaild krijgt zou ik zéker zo snel mogelijk wegwezen bij die club.
Dat is wel een sterk staaltje klantenbinding.
De tijd zal ’t dan leren….Hangt natuurlijk sterk van je site af. Kan me zo voorstellen dat buienradar een hoger percentage heeft. Deze is weer een bedroevend stuk lager als je kijkt onder ‘system details’.
Ik meet net 3 van je creatine pagina’s. 2 ervan hebben een keyword density van over de 12 en 1 over de 15 %. Zou me niet verbazen als het daarop gebanned is.
Vanaf 6% kun je gestraft worden zegt men.
Ik zeg dan maar houdt ’t onder 4% anders straffen je lezers je wel af als Google dat niet doet. -
AuteurBerichten