Aangemaakte reacties
-
AuteurBerichten
-
Dit soort grappen valt in de categorie ’tekst in dezelfde achtergrondkleur’ en andere cloakingtactieken. Werkt het? Waarschijnlijk niet. Google snapt ook wel dat een afbeelding van 1px plus een ALT-tekst niet echt een afbeelding is. Ik denk dus dat de afbeelding minimaal de grootte van een favicon nodig heeft. Met andere woorden: Google kan dit vrij eenvoudig achterhalen en je website afstraffen, waardoor je vaak nog een stukje lager eindigt dan in de situatie voorafgaand aan de implementatie ervan.
Bovendien moet je ook rekening houden met je concurrenten. Mocht Google dit soort praktijken over het hoofd zien, dan kunnen je concurrenten dit alsnog spotten in je code en een spamreport indienen. Kans is groot dat dan je hele website uit de index geknikkerd wordt.
Dus, gebruik gewone afbeeldingen met bijpassende ALT-tags die ook aansluiten op de zoekwoorden voor die pagina. Maak de ALT tags niet te lang.
Je kunt SearchStatus gebruiken in Firefox, je kunt dan naast PageRank/Alexa ook tegelijk zien of er nofollow links op de startpagina staan. Wanneer je deze tool combineert met de zoekmachines van Linkbuilding Tool, kun je vrij snel achterhalen welke startpagina’s interessant zijn.
Het kan goed kloppen dat het met de servers te maken heeft. Google doet niets met welke geo of language tag dan ook. Het hangt er een beetje vanaf wat je wilt:
Beter ranken in Google.nl:
– domein hosten in NL (wellicht ten koste van .be rankings)
– of, meer .nl links verzamelen
– of, wanneer je in een bepaalde regio in NL wilt ranken, werk met bedrijvengidsen en regionale startpagina’s
– of, je gaat naar Webmaster Central en je geeft aan dat de doelgroep zich in NL bevindt (wellicht ten koste rankings .be)Maw het verzamelen van .nl links zal in eerste instantie de strategie zijn als je de rankings in .be ook wilt behouden.
Succes ermee!
Vraagje:
Kan het zijn dat wanneer er wordt gewerkt met landingspagina’s die niet via de site te benaderen zijn dit de ranking van de paginas op de site negatief beinvloeden?
Stel je hebt een site over onderwerp x en wilt voor iedere regio een landingspagina aanmaken waarna ze dus verder kunnen navigeren op de site. Hiervoor moet je veel bijna dezelfde paginas hebben met als verschil de regio. Dit veroorzaakt natuurlijk weer dubbele content wat slecht is maar stel dat je het dubbele content issue weet te omzeilen…
Hoe kijkt Google hier tegen aan?
Volgens mij heb je het over het fenomeen ‘orphan pages’. Als ik je goed begrijp wil je dus landingspagina’s voor regio’s maken op jouw domein die verrder niet benaderbaar zijn via de website (=orphan page). Google moet die pagina’s wel via een link vinden (buiten je domein of binnen je domein via de sitestructuur; dit laatste wil je niet), zoals SEOguru al aangeeft. Je moet dus linkbuilding doen op alle orphan pages, als je het niet via je domein wilt linken. Iedere orphan page heeft een link nodig om geindexeerd te worden (zodat ze ‘orphan’ af zijn). Ik denk niet dat deze methode succesvol is. Kost teveel tijd en het is juist jouw sitestructuur die alle ‘regiopagina’s’ goed kan ondersteunen, waardoor die regiopagina’s beter kunnen ranken. Maak jouw regiopagina’s dus onderdeel van jouw sitestructuur. Probeer teksten op regiopagina’s zo uniek mogelijk te maken, voeg dus regiospecifieke info toe om de standaard teksten aan te vullen.
Kijk bijvoorbeeld naar de vliegticketboeren die de laatste jaren hun regiopagina’s op dezelfde manier vormgeven. Voorbeeld, nummer 1 voor ‘vliegticket madrid’: Vliegtickets Madrid – Goedkope tickets Madrid | CheapTickets.nl
Zie je hoe ze aan de rechterkant (unieke) reisinformatie toevoegen om deze landingspagina goed te laten ranken op ‘vliegticket madrid’. Google kijkt bijvoorbeeld naar synoniemen en sterk gerelateerde termen aan ‘vliegticket’ (tickets, luchtvaartmaatschappijen) en ‘Madrid’ (Plaza de Cibeles; Spaanse hoofdstad; Calle Huertas; Joy Eslava; Palacia Faviria). Zo bepaalt Google rankings (voor onpage factoren iig)
Dat is bij Google uiteraard de grote vraag. Het heeft volgens mij te maken met het moment dat Google de content indexeert. En daarbij komt uiteraard de autoriteit van de site om de hoek. Een site met een hoge autoriteit zal vaker gecrawled en geïndexeerd worden. Het is dus aannemelijk dat een site met een hoge autoriteit eerder wordt aangemerkt als de ‘eigenaar’ van de content dan een site die misschien de starter is van de content. Daarom is het belangrijk om een goed crawlbare site te maken met unieke interessante content. Dat maakt je op een gegeven moment een autoriteit.
Ik denk ook dat het moment van indexeren bepalend is. Het is daarom van belang dat je een artikel dat je op meerdere websites wilt zetten eerst op je eigen website laat indexeren en vervolgens pas het artikel verspreid over andere sites (om het probleem zoals hierboven beschreven te voorkomen).
Interessante vraag is natuurlijk wat er in het volgende geval gebeurt:
Stel je hebt een artikel op je website staan. Een ander domein kopieert het artikel (met of zonder toestemming). Een maand later verplaats je het artikel naar een andere URL binnen je domein vanwege een herstructurering van de site. Het artikel wordt opnieuw geindexeerd. Welk artikel is dan leidend? Jouw artikel op de nieuwe URL of de kopie op het andere domein? Zorgt bijvoorbeeld een 301-redirect van je oude naar je nieuwe URL ervoor dat je ook het ‘recht op eerste publicatie’ behoudt (lees: jouw URL wordt weergegeven in de zoekresultaten)? Ik heb het niet getest. Iemand?Hoi Berre,
Ik was stap 0 nog vergeten:
Kijk wat er in je robots.txt staat
Als er Disallow: / staat, betekent dit dat Googlebot de site niet mag indexeren
De robots.txt vind je hier: http://www.mijnsitenaam.nl/robots.txt
Check ook of er geen nofollow,noindex metatags op de pagina’s staan (zie broncode in gedeelte).Groeten,
BertNu stel ik vast dat Google de wijzigingen in de site niet oppikt. Als ik google op bepaalde termen, komt Google uit bij pagina’s uit z’n cache geheugen, waar oude navigatie opstaat.
Hoi Berre,
Wat bedoel je hier precies mee? Indexeert Google de nieuwe pagina’s niet? Staan er 404 pagina’s van de site in de zoekresultaten? Je kunt de volgende dingen doen:
-
[*]Verwijs de urls van de oude site naar de nieuwe site met 301-redirects:
mijnsitenaam.nl/oude-url-van-oude-website > 301-redirect > mijnsitenaam.nl/nieuwe-url-van-nieuwe-website[*]Maak een xml sitemap aan met de urls van de nieuwe site. Let op dat er geen urls van de oude site (die op nieuwe niet meer bestaan) in de sitemap terecht komen. Je kunt hier een sitemap genereren: Create your Google Sitemap Online – XML Sitemaps Generator
[*]Onderzoek met Yahoo! Site Explorer of Google Webmaster Tools of er externe sites zijn die linken naar de urls van de oude website. Schrijf de eigenaren van deze websites aan om de links te wijzigen naar de nieuwe url structuur.
[*]Vraag meer links aan op startpagina’s e.d. Je kunt hier de gratis variant van http://www.linkbuildingtool.nl voor gebruiken. Gebruik goede linkteksten bij het aanmelden (juiste keywords). Bookmark de site ook bij sites als Delicious.com die heel vaak gecrawled worden door Googlebot.
[*]Zet de crawlsnelheid van Googlebot hoger in Webmaster Tools om ervoor te zorgen dat Google de wijzigingen sneller oppikt.
Succes ermee!
Groeten,
Bert4 november 2011 om 4:53 pm In reactie op: Gaat verse content een nog belangrijkere rol spelen? #26822‘verse content’ is een beetje een containerbegrip. Wat ermee bedoeld wordt is:
– onlangs gepubliceerd
– unieke content
– gerelateerd aan andere unieke, verse content (bijvoorbeeld externe links naar verwante artikelen die ook net zijn gepubliceerd)Natuurlijk speelt dit een (meer) belangrijke rol, omdat het moeilijk te faken is. Het hangt ook af van het type zoekopdracht en de instellingen die je gebruikt (bijvoorbeeld: setting op zoekresultaten van de laatste 24 uur).
Als naamsite.nl de Nederlandse homepage is, dan is het meer logisch dat de Engelstalige homepage naamsite.nl/en/ is. En zoals gebruikelijk in een website structuur maak je onder de homepage meer pagina’s aan, dus is de variant naamsite.nl/en/amsterdam correct en ook wat Google verwacht. Voor keywordranking maakt het weinig uit, alleen denk ik dat het verwarrender is voor bezoekers als je de /en achteraan zet.
@SEOguru da’s een goeie tip.
Het is een beetje lastig analyseren als de oorzaak van duplicate content niet duidelijk is voor de mensen op dit forum. Er zijn namelijk meerdere wegen naar Rome:
Als een bepaalde (sub)directory het probleem veroorzaakt kun je deze ook uitsluiten met robots.txt. Als het een bepaalde parameter is, kun je dit via Webmaster Central regelen of je kunt automatisch canonicals genereren op basis van de parameter. Als mijndomein.nl/productA en mijndomein.nl/productA&id=2 een duplicate content probleem veroorzaakt kun je de boel zo programmeren dat ‘mijndomein.nl/productA&id=2’ – ‘&id=2’ = de canonical. Weer een andere manier is door te werken met noindex,nofollow op de duplicates.
Dus hoe zit jouw probleem precies in elkaar?
@mich77 Kijk eens op zoekmachinemarketing – BooGO! Startpagina onder ‘Link Building’. Je ziet daar vele artikelen over het hoe, wat en waarom van linkbuilding. Succes ermee!
28 september 2011 om 2:45 pm In reactie op: Dominate Google Top Ranking with pure .EDU Anchor Text Backlinks #22674Ben het met Backlinkcenter eens. Het hangt ook sterk af wat er op het .edu domein staat, welk onderdeel van een .edu site de link staat en de kwaliteit van de andere links op de .edu pagina.
Voorbeeld:
Als de pagina waarop jouw link staat gelinked wordt vanaf de homepage, de .edu site zelf van een respectabele universiteit is en de overige uitgaande links op de pagina waar jouw link staat van goede kwaliteit zijn, dan is de kans groot dat het een waardevolle link is in termen van Trustrank en PageRank.Als de pagina op een openbaar gedeelte van de .edu site staat (bijvoorbeeld persoonlijke pagina’s van studenten), welke 15 stappen van de homepage is verwijderd en de links op de pagina grotendeels commercieel of van lage kwaliteit zijn, dan is de kans groot dat een .edu link je niet veel verder helpt.
Er zijn zelfs SEO-ers die gebruik maken van wetenschappelijke artikelen die voorzien worden van (onzichtbare) links naar Viagra sites en deze worden vrolijk op .edu sites neergezet. Zie ook mijn artikel over Google Scholar.
De beste man preekt natuurlijk voor eigen parochie. Zijn artikelendirectory wordt aangepakt dus is gelijk de conclusie dat SEO niet werkt. De juiste conclusie is: keyword gestuffte 13-in-een-dozijn artikelen van slechte kwaliteit of die grotendeels uit duplicate content bestaan worden verwijderd uit de index van Google of krijgen een downgrade in termen van rankings (PageRank). Er zijn wel degelijk goed geschreven artikelen binnen die directories die nog steeds goed ranken voor competitieve termen. Tegenwoordig moet alles snel-snel waardoor je juist kansen mist.
Je kunt de vraag ook omdraaien: als ik goede artikelen produceer en daarmee mijn SEO campagne wil ondersteunen, is zo’n artikelendirectory dan de juiste plaats om mijn artikel te pluggen? Of is het misschien handiger om dit artikel via een guest post op een niche blog (bijvoorbeeld FrankWatching) te zetten, waarmee je niet alleen profiteert van de PageRank van zo’n site, maar ook gelijk de doelgroep kan bereiken. Een win-win situatie die de tijd die het schrijven van een goed artikel ruimschoots compenseert.
@ Bert,
Is het ook mogelijk om lokale webpagina’s op bekende, gerespecteerde sites te maken als squidoo.com, expertpagina.nl en jouwweb.nl?
Bijvoorbeeld [url]www.[keyword]amsterdam.jouwweb.nl
Ja, dat is ook een mogelijkheid, maar:
a) Let goed op op welke site je een artikel plaatst. Sommige sites hebben zeer weinig PageRank en daardoor kan het zijn dat jouw pagina nauwelijks PageRank krijgt.
b) Sommige artikelsites zijn hard geraakt door de Panda update, dus de kwaliteit van de artikelen op een domein speelt indirect een rol voor jouw artikel. Het artikel dat je plaatst kan (terecht of onterecht) slachtoffer worden van een opschoonactie door Google.Nadelen:
a) Webmasters linken niet graag naar dit soort pagina’s, of het nu Google Sites, Squidoo of eHow is. Linkbuilding gaat dus uiterst moeizaam, tenzij de kwaliteit van het artikel erg hoog is.
b) Als je een artikel van hoge kwaliteit maakt, waarom het artikel dan op zo’n website zetten? Een guestpost op een blog die dichtbij jouw doelgroep ligt is beter. Je krijgt een ander soort publiek, verbreed je netwerk etc.Wat betreft je andere vraag:
Maak voor ieder product + stadsnaam een aparte pagina. Zoekwoorden met geografische lokaties hebben de hoogste conversiepercentages. Je wilt hier altijd een top 10 positie hebben. Doe veel moeite om de pagina’s origineel te maken. Moffel de pagina’s niet weg ergens in een sitemap, maar maak ze een integraal onderdeel van de website.Zet aan de andere kant niet op iedere pagina 1000 linkjes naar stedenpagina’s. Je kunt dit oplossen door bijvoorbeeld eerst te linken naar een provincie-overzichtspagina en vervolgens pas naar de individuele steden. De provincie-overzichtspagina wordt dan het knooppunt / verzamelpunt voor PageRank, die vervolgens zijn PageRank verdeelt over de stedenpagina’s.
Ik verzamel mijn overzicht van tips, tools en gidsen op zoekmachinemarketing – BooGO! Startpagina
-
AuteurBerichten
Gerelateerde berichten:
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…