Aangemaakte reacties
-
AuteurBerichten
-
Bij mij heb ik die laatste code er nu in staan en hij stuurt met en zonder www door.
Zou niet weten wat het probleem kan zijn.Redirecten vanaf een lagere pr site kan volgens mij geen negatieve invloed hebben op de andere domein maar ik heb er geen bewijs voor.
Als er nogal wat links naar de oude site lopen zou ik het gewoon doen zoals hierboven staat.Als er nauwelijks links heen lopen en het is alleen om bezoekers door te sturen dan kun je gewoon een meta refresh gebruiken.
Kun je de domeinen niet noemen waar het over gaat?
Als er toch niks op de oude domein staat zou ik dit in een .htaccess in de root van de oude domein zetten.
RewriteEngine on Redirect 301 / http://rustdomein.nl
Eigenlijk hoort het zo volgens een of andere site:
#Options +FollowSymlinks RewriteEngine On RewriteCond %{HTTP_HOST} ^yoursite.hosting.com$ [OR] RewriteCond %{HTTP_HOST} ^www.yoursite.hosting.com$ RewriteRule (.*)$ http://www.yournewdomain.com/$1 [R=301,L]
Bij mij werkt die niet maar als ie bij jou wel werkt is dat waarschijnlijk een betere optie.
Ik denk trouwens niet dat het Google iets uit zal maken in het geval van een lege site want
het is allebei een 301 permanente redirect.Persoonlijk redirect ik altijd naar met www gewoon omdat de meeste backlinks ook met www zijn (of worden in de toekomst.).
Edit: Nu heb ik er nog eentje gevonden die hier ook werkt:
RewriteEngine on RewriteCond %{HTTP_HOST} ^(www\.)?rust-domein\.nl [NC] RewriteRule ^(.*)$ http://rustdomein.nl/$1 [R=301,L]
Misschien kan er iemand met meer verstand komen vertellen wat de beste optie is.
Als ik naar de link kijk die je gaf dan is dat een subdomein van een domein wat toch ruim 3 jaar oud is en best veel backlinks al heeft vanaf veel verschillende domeinen.
Mijns inziens heeft de hoofddomein een behoorlijke invloed op de score van de aangemaakte subdomeinen.
Een subdomein aangemaakt onder startpagina.nl scoort gelijk hoger dan een subdomein van janklaassen.nl
Dus zo gek is dat niet dat ie op pagina 4 scoort.Ik zie ’t, dat gaat je niet helpen iig. Als je voor iedere foto een aparte pagina aanmaakt moet je er ook een echte pagina van maken en niet alleen een titel met een plaatje tonen.
Dit kost alleen maar paginawaarde van je andere pagina’s. Je kunt ze dan nog beter niet laten indexeren. Met een javascript die thumbnails uit laten vergroten zou beter zijn geweest.’t Zal niet de hoofdreden zijn maar wel een van de redenen dat je lager staat in Google.
Ik zou trouwens ook meer zoekwoorden in de titels van je onpage linkjes gebruiken.Wat ik hier zie is pagerank 1 voor klimparken.nl en 67 backlinks allemaal met ankertekst klimparken. 1.186 dubbele titles snap ik niet je hebt niet zoveel pagina’s. Of mis ik hier iets?
Ok blackhat is niet altijd even erg. Ik zit ook wel eens met een grijze hoed op. Misschien zie ik ’t te zwart want voor mij is blackhat voornamelijk cloacking en mensen die tig domeinen of subdomeinen aanmaken en de zaak onder spammen en dan ook nog zelfs van tevoren weten hoe lang of eigenlijk hoe kort de levensduur van hun pagina’s is in Google.
Van mij kunnen zulke domeinen niet snel genoeg gebanned worden. En mocht een klant om zoiets vragen dan heeft ie bij mij pech gehad.Misschien zien we iets als je zo’n 404 url hier geeft.
Die metatag kun je testen maar ik denk niet dat dat gaat helpen.De conclusie dat whitehat voor de lange termijn beter is trek ik niet alleen aan de hand van dat Engelse onderzoekje. Waar ’t mij om gaat is dat stel dat blackhat altijd veel beter zou zijn zou je dat je bezoekers aan willen doen. En zou je een klant van jou met het risico op willen zadelen…. ik niet. Zou blackhat beter zijn om ff snel geld te verdienen online? Waarschijnlijk wel. Zou ik dat doen dan ? Nee, waarom niet? Niet omdat ’t van Google niet mag maar omdat als iedereen daarmee bezig gaat het internet een grote zooi wordt waar niemand meer weet waar ie aan toe is en waar een weldenkend mens ook niks meer durft te kopen.
Persoonlijk zie ik de meeste blackhat technieken dus als een bedreiging voor het internet en van mij mag Google het harder aanpakken.Als je index,follow weglaat gebruikt Google index,follow want dat is de default.
Mooi voorbeeld! Keyword stuffing kom je nog steeds gewoon mee weg bij Google.
Dit is ook bijna niet te automatiseren denk ik want als ze hier penalties voor gaan geven neemt ie gelijk de sites met tag-clouds ook mee en dat zijn er veel.Deze vraag moet iedereen aan zichzelf stellen. Wil je voor de korte termijn gaan, wil je bezoekers bedotten, wil je het internet lelijker maken, wil je concurrenten een oor aan naaien,
hoe wil je teboek komen staan?
.co.uk staat nu bovenaan dus whitehat werkt op lange termijn. GoogleSpam Reports are submitted directly to our engineers and are used to devise scalable solutions to fight spam.
‘Scalable solutions’ wil dus zeggen dat ze handmatig er niks aan doen maar de reports gebruiken om hun zoekmachine te verbeteren. Ik ga er zelf maar vanuit dat ze honderden dezelfde reports van verschillende ip’s moeten hebben om handmatig actie te ondernemen.
1 of 2 meldingen voor een kleine site gebeurt dus gewoon eigenlijk niks mee.Zou ook mooi zijn als iemand van Google hier meer duidelijkheid over kan komen geven. 🙂
Want zoals het er nu uitziet is spam rapporteren best wel een zinloze bezigheid.Wat zijn de vormen van spam. heb je voorbeelden?
@Gebruiker2500 bij mij staat ie gewoon als organisch resultaat op nr3.
Als ik de ankerteksten in de backlinks zie is het net of je heel graag op “Fun forest” gevonden wilt worden in plaats van op klimpark.
Er staat bijna nergens iets gelinkt met “klimpark”. Met “Fun Forest” sta je toch wel bovenaan dus probeer meer Klimpark(en) te laten linken.Dank voor de uitleg!
’t Is me een stuk duidelijker geworden.
De optie “search by Drawing” is trouwens ook wel mooi. -
AuteurBerichten