Aangemaakte reacties
-
AuteurBerichten
-
Kan iemand mij alsjeblieft uitleggen hoe je het beste een HTML sitemap kan opsplitsen/opdelen als je meer dan 100 links per HTML sitemap hebt?
Moet je dit dan als volgt maken:
mijndomein.nl/sitemap-1.html (bevat de links naar category pages en één link naar sitemap-2.html)
mijndomein.nl/sitemap-2.html (bevat alle links van één product category en één link naar sitemap-3.html)
and so on?
Daarna alles uploaden naar GWT?
Wat kan ik het beste doen om zo snel mogelijk van deze fouten af te komen?
De eerste stap is het redirecten van de oude pagina’s naar de nieuwe pagina’s. Eén voor één.
Zie deze video van Matt Cutts over 301 redirects.Uitleg van Google over 301-redirects
Het is natuurlijk een hels karwei om duizenden URL’s handmatig te redirecten, maar helaas is hier voor zover ik weet geen andere oplossing voor als je de oude rankings weer wilt herstellen.
Dus – crawlfouten oplossen doe je door de oude pagina’s (of crawlfouten) met een 301 omleiding door te verwijzen naar de pagina waar de informatie naar toe is verplaatst (m.a.w. page-to-page level redirect). De crawl errors zullen dan vanzelf weer verdwijnen.
Echter is een backlink nog steeds een backlinks zeker als deze contextueel correct is
Bedoel je hiermee dat, zolang het onderwerp van het artikel enigzins overeenkomt met het onderwerp van de website waarnaar gelinkt wordt, dit geen kwaad kan? (kwaad kan het natuurlijk sowieso niet, elke link is een link, maar is er dan ook echt waarde verbonden aan de link? Ja, relevantie, anchor-text, en een divers linkprofiel, dat wel.)
Hallo Mich77,
Hoe bedoel je precies “hoe je dit het beste kunt doen?”
Bedoel je hoe je het beste kunt linkbuilden of wat?Zorg ervoor dat de backlink in je artikel altijd een goede ankertekst mee krijgt.
Link vanaf andere sites naar je artikelen op artikelsites om de backlink nog krachtiger te maken.
Verstuur vooral niet hetzelfde artikel naar meerdere artikel directories, daar dit je site negatief kan aantasten!Graag meer duidelijkheid over je vraag.
@SEOguru – bedankt voor je snelle reactie. Dat is inderdaad een goede tip.
Ben op onderzoek uitgegaan en heb de volgende artikelen gevonden:1. URL-parameters – Webmasterhulpprogramma’s van Google Help
2. Official Google Webmaster Central Blog: Improved handling of URLs with parameters
3. Official Google Webmaster Central Blog: Google, duplicate content caused by URL parameters, and youHet blijkt dus dat je met de URL Parameter functie in Google Webmaster Tools kan aangeven welke parameters wel/niet gecrawled mogen worden. Google zal de link populariteit (en waarschijnlijk ook de overige data zoals ankertekst) automatisch op de juiste wijze samenvoegen.
Bedankt voor je reactie. Mijn probleem zit als volgt in mekaar.
Ik heb een webwinkel welke URLs genereert als:
mijnwinkel.nl/boterhammetworst – echter worden er voor dezelfde pagina ook URL’s gemaakt
zoals mijnwinkel.nl/boterhammetworst?sort=39484=id=393849 en andere dynamische waarden.Ik begrijp nu dus dat de Webmasterhelp tools het probleem kan oplossen door de zaken op de juiste manier in te stellen. De canonical wordt dus automatisch door Google ingesteld op basis van de instructies in Google Webmastertools.
Low-quality content op een domein kan/heeft slechte invloed op de reputatie van de site op het hele domein (domain-wide). Inhoud van lage kwaliteit is naar alle waarschijnlijkheid de reden dat hubpages.com en dergelijke sites zijn bestraft.
Ik refereer graag naar dit artikel van Google met een handige checklist voor het maken van een high-quality site: Het Google productblog
De oplossing voor hubpages is in mijn optiek het verhogen van de kwaliteit van de hele site, gelet op de door Google aangegeven controlepunten.
Respect voor jouw antwoord. Mooi omschreven.
Backlinks aanmaken kan iedereen. Het gaat echter vooral om de kwaliteit van deze links.
Van welke websites zijn deze links afkomstig? Zijn dat ook bekende, betrouwbare sites die populair zijn in de markt?
Dát zijn de backlinks die echt het verschil maken. Dit type links zijn over het algemeen niet gemakkelijk te verkrijgen. In de eerste plaats moet je interessant gevonden worden. Dat betekent goede inhoud maken en aanwezig zijn in de community.
Dus ze kunnen wel wat “links aanmaken”, maar dat is lang niet zo effectief als links toegewezen krijgen van de betere sites.
Mijn ervaring is juist dat Marktplaats advertenties wel goed scoren in de zoekresultaten van Google.
Het ligt natuurlijk ook aan de content op de pagina en de populariteit van een rubriek.Subdomeinen worden sinds kort door Google toch als één domein gezien?
Als je je site richt op het Nederlandse publiek, zorg dan dat je site op een webserver in NL staat gehost.
Gewoon om 100% zeker te zijn dat er bij Google geen twijfel kan ontstaan.Andere factoren die een rol spelen zijn:
– de landinstelling in Google Webmaster Tools
– TLD van de domeinnaam (.nl, .com, .fr)Bekijk hier zelf wat Google te vertellen heeft over de locatie van een webserver en SEO.
Ze zeggen er nog wel degelijk naar te kijken. In hoeverre dat nog klopt sinds 2009, geen idee, maar zou in ieder geval geen risico’s nemen.
En hier nog een interessante video over hetzelfde thema; webserver locatie en SEO.
De kans dat Google nog steeds naar het IP-adres van de webserver kijkt is groot.
Hartstikke bedankt voor je uitleg. Helder.
Mocht iemand desondanks een link naar http://www.seoguru.nl/seo-FOrum/ hebben gelegd (en dan inderdaad een 404 krijgt),
Ik kwam dit laatst tegen en vandaar mijn posting hier op het forum. Het was zo’n mooi backlinkje (vanaf relevante pagina, relevant forum, mooie title-tag, etc.) – alleen leidde hij niet naar de juiste pagina vanwege die hoofdletter in de bestandsnaam. 301 redirect is dus de oplossing hiervoor.
Ben erachter gekomen dat Google webmastertools deze links wel inzichtelijk maakt in de sectie: links naar uw site, gevolgd door “gelinkt vanaf x pagina’s”. Handig, omdat je dan foutieve backlinks snel kan opsporen en verhelpen.
of gewoon redirecten naar de homepage
Ok. Interessant. Maak liever gebruik van page-to-page level redirects.
Die andere constructie die je aangaf heb ik nog geen ervaring mee. Thanks anyway.Sorry, heb verder niet naar tarieven gekeken, noch naar PageRank.
Ik denk dat er weinig Nederlandse Persberichten Sites bestaan met hoge PR.Persberichten; Gratis persbericht plaatsen heeft Pagerank 3.
Heel goede vraag die je hier stelt.
Als de kleine sites (noem het een soort mini-sites) waarde bevatten voor gebruikers,
zal het geen probleem zijn om deze webpagina’s online te houden en daar vandaan te linken naar een homepage. De webpagina’s moeten echter wel nuttige inhoud bevatten voor gebruikers.Aan de andere kant kan je stellen dat het tegen de richtlijnen van Google is om activiteiten te ontplooien welke doelbewust worden ingezet om zoekmachines om de tuin te leiden. Dat is beslist niet toegestaan.
Daarnaast kan ik me voorstellen dat, als dit soort dingen (aanmaken extra sites en massaal linken naar eigen hoofdsite) stelselmatig gebeurt, er bij Google een rode vlag omhoog gaat.
De volgende vraag is passend in deze situatie:
“Hebben mijn gebruikers hier wat aan?”
Je hebt ook van die pagina’s die aangemaakt worden, specifiek gericht op één zoekterm,
bijvoorbeeld “huis kopen maastricht”, “huis kopen groningen” etc. etc.
Dat soort praktijken zijn wel degelijk tegen de Google guidelines!Laatstgenoemde pagina’s zijn de Doorway Pages:
“Doorway-pagina’s zijn meestal grote groepen pagina’s van lage kwaliteit waarin elke pagina is geoptimaliseerd voor een specifiek zoekwoord of woordgroep. In veel gevallen worden doorway-pagina’s geschreven om een goede positie te verkrijgen voor een bepaalde woordgroep en gebruikers vervolgens door te sturen naar één bepaalde bestemming.
Of ze nu voor meerdere domeinen worden gebruikt of binnen één domein zijn geplaatst, doorway-pagina’s zijn meestal frustrerend voor gebruikers en schenden onze Richtlijnen voor webmasters.”
(bron: Cloaking, sneaky Javascript redirects, and doorway pages – Webmaster Tools Help)
Is hier sprake van in deze situatie?
Verder staat er het volgende omschreven in de Google guidelines:
“Probeer niet via allerlei trucjes uw positie in de zoekresultaten op te schroeven. Een goede vuistregel is dat u zonder schuldgevoel zou moeten kunnen uitleggen wat u heeft gedaan ten aanzien van concurrerende websites. Andere nuttige vragen waarover u kunt nadenken zijn: ‘Hebben de bezoekers van mijn site hier wat aan?’ en ‘Zou ik dit ook doen als er geen zoekmachines bestonden?’
Zegt genoeg lijkt me. Geen fratsen uithalen, want Google zal je vroeg of laat bestraffen.
Mogelijk zelfs zonder dat je het opmerkt, bijvoorbeeld door de trust-score te verlagen.Mocht je er behoefte aan hebben, kun je altijd een spam report submitten naar Google om de situatie te laten bekijken.
Hallo!
Nee heb geen lijst, ikzelf niet, misschien anderen hier op het forum.
Wel kom ik zo nu en dan persberichten websites tegen,
zoals:– Persbericht plaatsen en versturen met OnlinePersbericht.com
– Persbericht.nu verspreidt gratis en onbeperkt uw persberichten via zoekmachines, sociale media en een netwerk aan journalisten!(schijnt een goede te zijn!)
Heb dit via Google gevonden: Hoe plaats je persberichten op het internet?
als ik er nog meer tegenkom
ben jij de eerste die het weet 🙂Een interessante video gevonden met een antwoord op een soortgelijke vraag:
Video staat hier: Verlies je PageRank aan een pagina die uitgesloten is met Robots.txt?Wat bedoel je met “effectieve exacte trafficwinst”?
Je bedoelt hiermee dat long-tail traffic beter converteert?Verder begrijp ik uit je reactie dat het dus verstandig is om wel “Amsterdam” te gebruiken,
hoe specifieker de zoekterm, hoe beter de kwaliteit van de bezoekers. -
AuteurBerichten
Gerelateerde berichten:
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…