Aangemaakte reacties
-
AuteurBerichten
-
Aha, bedankt voor je uitgebreide antwoord. Probleem is inderdaad dat ze soms ook nog boven mij komen te ranken, (waarschijnlijk een PR probleem).
Ik ga er voor zorgen dat er een ahref in komt en dat ik het nadrukkelijker ga vermelden dat het niet op prijs gesteld wordt.
Bedankt!
Je kan, als je bang bent dat dit je rankings beinvloedt, de urls een ‘nofollow’ tag meegeven. Zo geef je aan dat Google de link niet hoeft te volgen en is het voor Google duidelijk dat je de urls geplaatst hebt uit functionaliteit voor de bezoeker en niet om de ranking te beïnvloeden.
Omdat ik nergens de dynamische urls automatisch om kon zetten in statische seovriendelijke urls, ben ik er letterlijk na 30 uur uitgekomen om het op te lossen met deze .htaccess en deze wil ik jullie niet onthouden 🙂
Options +FollowSymLinks
RewriteEngine on
RewriteCond %{THE_REQUEST} cat=(91)\ HTTP/
RewriteRule . http://www.voorbeelddomein.nl/keyword.html? [R=301,L]Ah bedankt voor de tips, ik ga ermee aan de slag!
Intussen heeft het probleem “zichzelf” opgelost. Ik denk ik deel het ff met jullie, aangezien dat wel zo netjes is na al die reacties om me te helpen.
De crawlfouten hebben denk ik een dikke twee maanden (onterecht) in het Webmaster Hulpprogramma gestaan. Alles klopte (en heeft ook altijd geklopt) aan de urls maar ze werden maar niet geindexeerd en bleven maar staan als crawlfout.
Een tweetal weken geleden waren de crawlfouten eruit, en een dag later waren ze netjes geindexeerd.
Dus ik denk dat het aan google zelf lag.Misschien zou het nu met de nieuwe manier van Fetch as GoogleBot niet meer gebeuren, omdat je ze, wanneer ze succesvol zijn, je de url direct kan “aanmelden voor de index”..
Anyways,
bedankt.
De Url kan ik, om privacyredenen, hier niet geven maar wellicht wel via een privebericht. Maar ik ben ervan overtuigd dat het aan de link niet te zien is. Via “Ophalen als Googlebot” krijg ik te zien “succesvol” bij alle “crawlfouten” en dit komt er dan uit:
HTTP/1.1 200 OK
Last-Modified: Mon, 13 Jun 2011 13:27:09 GMT
ETag: “1036855e-2811-4a597e0568f3c”
Accept-Ranges: bytes
Vary: Accept-Encoding
Content-Encoding: gzip
Content-Type: text/html
Server: PCX/No-Cache (cache01)
Content-Length: 2942
Date: Tue, 28 Jun 2011 07:39:56 GMT
Age: 0
Connection: keep-alive
X-Cache-Hit: No
X-Cache: 514356742Daar is toch ook niets mis mee??
Ja weet ik Glompie, maar ik bedoelde meer als test voor de zekerheid. Ik ga nu op 1 van de paginas die een 404 foutmelding krijgt toch toevoegen. Bij wijze van test. Baat het niet dan schaadt het niet.
Ik wil gewoon graag dat ze geïndexeerd gaan worden omdat het wel belangrijke pagina’s zijn…
En het liefste zónder de url-namen aan te passen.
Moet ik misschien toch aan deze paginas deze meta toevoegen? Voor de zekerheid?
Wederom bedankt voor je uitgebreide reactie!
Inderdaad vreemd dat ze niet geindexeerd worden. Mijn pagina bestaat uit 23 pagina’s waarvan er 14 geindexeerd zijn. De andere 9 zijn de paginas waar hij een ‘404 fout niet gevonden’ melding voor geeft. Als aanvullende informatie geeft hij ook aan: Gekoppeld vanaf 14 pagina’s (de andere, wél geindexeerde paginas)
Google kan zeer zeker wel goed bij de URL’s komen, mijn site-navigatie is zonder twijfel zeer goed te noemen.
Ik maak nergens gebruik van robots.txt en nergens een noindex of nofollow tag. Ook maak ik nergens gebruik van Canonical tags.
Via de W3C successfully checked as XHTML 1.0 Transitional.
Wat is een “Glitch”? Soort van bug?
Raad je me aan om ze eerst te hernoemen en zodra ze geindexeerd zijn, te vernaderen naar de juiste naam?@Bert bedankt voor je uitgebreide reactie!
Mijn wedervraag is alleen waar ik die cache kan vinden aangezien de paginas die in WMH 404 foutmeldingen krijgen ook niet geindexeerd zijn in Google.
kan ik dat zien via Ophalen Als Googlebot? Want die geeft dit aan (het eerste gedeelte van wat hij dan vindt):
Dit is het resultaat nadat Googlebot de pagina heeft opgehaald.
URL: http://www.mijndomeinnaamxxx.nl/mijndomeinvoorbeeld/
Datum: vrijdag 24 juni 2011 02:04:18 PDT
Googlebot-type: Web
Download Time (in milliseconds): 212
HTTP/1.1 200 OK
Last-Modified: Mon, 20 Jun 2011 20:07:24 GMT
ETag: “1e7dcf-2b26-4a62a489fac62”
Vary: Accept-Encoding
Content-Encoding: gzip
Content-Type: text/html
Server: PCX/No-Cache (cache01)
Content-Length: 3282
Date: Fri, 24 Jun 2011 09:04:20 GMT
Age: 0
Connection: keep-alive
X-Cache-Hit: No
X-Cache: 1786016689
etc.Correct, via een 301 redirect in htaccess heb ik mn domein zonder www naar domein mét www laten redirecten.
Prima, dan laat ik het zo en laat ik de instellingen via Google Webmaster Tools met rust…
Thnx1
bedankt voor je reactie. Zeker geen mosterd na de maaltijd, zeer informatief!
Nog een korte vraag. Ik zorg er via een htaccess bestand ervoor dat voorbeelddomein.nl (dus zonder www) automatisch naar www .voorbeelddomein.nl gaat.
Is het dan nog aan te raden om dit via webmastersHulp Google ook nog te doen?
En waarom :)?Bedankt voor jullie tips. Ik heb dan ook besloten om voor de extentieloze URL te gaan, dus voor voorbeeld 1:
-
AuteurBerichten