Aangemaakte reacties
-
AuteurBerichten
-
Dat is lastig zo even snel te zeggen, en vraagt om een uitgebreidere analyse.
Even zo snel kijkende kan ik wel zien dat het aantal verwijzingen naar je website erg laag is in vergelijking met je concurrenten.
Ja, maar alleen indien een zoek-instelling verschilt (Internet, Pagina’s in het Nederlands, Pagina’s uit Nederland) of indien een ander IP-nr wordt geraadpleegd.
Afhankelijk van de lokatie alwaar de zoekopdracht wordt uitgevoerd worden de resultaten van één van de vele Google-servers (of datacenters) gehaald. De onderlinge resultaten tussen deze servers kunnen verschillen. Op het Internet zijn verschillende tools te vinden waarbij de rankingresultaten van een website op een bepaald keyword per datacenter (ofwel IP-nr) worden weergegeven.
Okee, thanks.
Nog even door op geo targeting: begrijp ik het volgende goed?
Heb nu een domeinnaam.com:bedrijfsnaam (matig converterend in zoekmachines, redelijke bekendheid in branch) Kan ik een keyword gunstige URL .nl registreren en redirecten van de NL versie van de .com naar de .nl
Geen last van double content, alles wordt geindexeerd van de NL (2e)versie?
Reden: extra vindbaarheid zoekmachines op keyword in URL en extra exposure op andere keywords en combinaties. NL URL ook extra te promoten met Adwords op best converterende zoekworden (dubbele exposure op paid)
Of ‘makkelijk’ doen met sub domeinen/keyword toevoegingen? Wat heeft in dit geval voor vindbaarheid de voorkeur keyword.domeinaam of domeinnaam/keyword en zit hier nog een maximum caracters aan?Redirect van ‘keyword-gunstige url’ naar andere website heeft geen zin. Alleen keywords in urls (domeinnaam, directories, bestandsnamen) van de website zelf hebben zin.
Subdomein (keyword.domein.com) of subdirectory (domein.com/keyword) maakt volgens mij niet (veel) uit. Als anderen andere ervaringen hebben hoor ik dat graag!
Nog een vraagje in het verlengde van indexering: heb ook XML sitemaps op mijn sites. Zijn XML sitemaps zoals gegenereerd door Google auto aanvullend op te indexeren pages (sites ‘groeien’ met ongeveer 20 product pages per dag) en kan dit invloed hebben op indexering van deze nieuwe pages?
Deze vraag begrijp ik niet…
Hallo,
heb een website in 6 talen, echter als ik site:domeinnaam bij google tik, hebben de meeste pagina’s alleen een UK versie weergave in resultaten.
De Metatitle en description zijn per taal verschillend (maar gelijk voor alle pages in zelfde taal).
Any ideas?Op mijn weblog heb ik recentelijk een artikel geschreven over de wijze waarop een website in meerdere landenversies van Google kan worden opgenomen:
SEO tutorial on “geo targeting” and “language targeting” | SEO blog | SEO guru
In jouw geval moet je ieder van de zes landen afzonderlijk als site toevoegen aan je webmaster tools account (ook al is het in zijn geheel één site, bv onder een .com). Vervolgens moet de Geographic Target van iedere site worden gezet op het betreffende land.
Op die manier kan Google de verschillende landen binnen de ene website indexeren binnen de verschillende landenversies van Google.
En, inderdaad, alle titles en descriptions moeten uniek zijn om een kans te maken goed te gaan scoren met betreffende pagina’s.
Hallo JanPeter,
Excuus voor de late reactie. Ik had je bericht wel gelezen, maar was van plan er wat later op terug te komen. Namelijk wanneer ik wat verder zou zijn met de Caphyon software. Nu ben ik daar tot nog toe nog steeds niet echt lekker verder mee gekomen. Het staat hoog op de prioriteitenlijst, want moet voor verschillende klanten maandelijks automatisch rankingoverzichten genereren (beginnend in 2009). Hoe bevalt dit pakket jou tot nu toe? Heb je ook al andere ranking-software bekeken/getest?
Lees zojuist op het punt van Flash (waaronder sIFR) een mooie handleiding van Eduard Blacquière: Handleiding: Zoekmachine Optimalisatie (SEO) voor Flash websites – EdWords.nl Zoekmachine Marketing Blog
Hij laat goed zien dat sIFR een zoekmachine-vriendelijke manier is voor het gebruik van Flash om twee redenen:
1. indien browser geen flash ondersteunt wordt html-variant automatisch getoond. Hierdoor krijgt de zoekrobot ook netjes de html-variant.
2. door de automatische koppeling van de html-variant en de flash-variant kan er geen cloacking plaatsvinden, d.w.z. je kan geen html content creëren die afwijkt van de flash-content.Ja, goed punt: waarom niet eerst keywords en dán pas content?
Ik interpreteer dit als volgt. Als je zegt: “eerst keywords en dán pas content”, dan denk je eerst aan de zoekmachines en dan pas aan de inhoud. Vanuit dat paradigma maak je een website waarbij keywords centraal staan en de content er primair is ter ondersteuning van de keywords. Google zegt hier echter over: bouw een website voor je bezoekers, niet voor de zoekmachines.
Ik ben het daar mee eens. Ik wil niet dat Google websites hoog laat scoren waar keywords centraal staan. Ik wil dat websites hoog scoren waar content centraal staat. Je merkt het verschil namelijk onmiddellijk wanneer een website primair gedacht is vanuit keywords of primair vanuit content. De eerste resulteert meestal in slappe teksten. Niet interessant dus. Google wil echter interessante informatie hoog laten scoren.
Als je -zoals de piramide voorschrijft- content op de eerste plaats zet, dan zeg je dat je iets te melden hebt (of moet hebben). Pas in de tweede plaats ga je kijken hoe je de content zó kan presenteren dat het ook nog goed gevonden wordt.
Ik merk vaak dat bedrijven die zoekwoorden op de 1e en content op de 2e plaats zetten, heel veel moeite hebben met het produceren van teksten. Ik probeer ze te stimuleren iets te schrijven over de woorden waarop ze zo graag hoog willen scoren. Maar dat lukt ze niet. Dat is wel vreemd: een bedrijf runnen op een gebied waar je eigenlijk weinig over te melden hebt, en tegelijkertijd wel hoog op wilt scoren.
Ik denk dat daarom in de SEO-piramide eerst gedacht wordt aan inhoud en dan pas aan keywords.
Verder vroeg ik mij nog af wat voor social functionaliteiten (stap4) je aan websites zou kunnen toevoegen? Een forum, natuurlijk, maar wat nog meer? Hierover ontvang ik graag suggesties!
Tja, misschien heeft Google door dat het geen “organische” linkjes betreft? Linkbuilding vraagt om een subtiele aanpak: Google wil namelijk alleen verwijzingen waarderen die daadwerkelijk in alle oprechtheid door derden zijn gelegd. Als er opeens heel veel linkjes -ook nog eens met dezelfde ankerteksten- in één klap bijkomen, is dat verdacht. Misschien ben je dus door de mand gevallen.
Dat twee-weken-effect ken ik overigens niet. Het effect van linkjes kan veel sneller plaatsvinden.
Nee, geen “negatief kaartje” mogelijk. Als de oude site weg is, is de content op de nieuwe site uniek.
Als je een hyperlink hebt liggen rond de image (dus ), dan wordt de alt als ankertekst beschouwd van de link. M.a.w. met de alt vertel je Google waar de pagina waarnaar wordt verwezen via de href, over gaat. Nog specifieker: Google noteert dat pagina1.html gaat over “Voorbeeld”. Je zal met die pagina dus hoger gaan scoren op “Voorbeeld”.
Dit alles heeft niets met PageRank te maken. PageRank heeft alleen te maken met verwijzingen tussen websites. Het heeft niets te maken met alt-teksten, zelfs niet ankerteksten. Lees meer over PageRank: Pagerank en Trustrank uitgelegd | SEO guru
Nee, dit zal niet worden gezien als spam (tenminste niet als je het niet volstrooit met lijsten van zoekwoorden). Desalnietemin is het ‘good practice’ om iedere afbeelding een eigen alt-tag te geven, mn om met je kunstwerken gevonden te kunnen worden in images.google.nl .
Als er verwijzingen achter de afbeeldingen hangen (bijvoorbeeld naar een pagina met meer gedetailleerde info over het betreffende kunstwerk), dan is het vanuit SEO bezien zeer belangrijk dat de alt-tag wordt ingevuld. Die gaat dan namelijk beschouwd worden als ankertekst voor de pagina waarnaar wordt verwezen. En -zoals we weten- is de ankertekst voor Google van groot belang om te bepalen waar de pagina over gaat.
Het is wel dubbele content: de Geographic Target van beiden zal namelijk op NL worden ingesteld, of -indien niet ingesteld- aldus door Google worden vastgesteld op basis van taal vd content en eventueel IP-nr.
Beste Margriet,
Ik ben zo vrij even in te grijpen in deze discussie. Ik ben het met je mede-discussieerders eens dat het lastig is iets zinnigs te zeggen over je vraag als je niet compleet open bent of zijn kan over het betreffende domein. Omdat de discussie daarom verder niet kan vlotten, wil ik het bij deze sluiten.
Iedereen bedankt voor de bijdragen.
Alain
Hallo Margriet,
Beetje lastig deze vraag te beantwoorden, daar ik de e-asy tool niet ken. In ieder zou de tool een ander Google-datacentrum kunnen consulteren dan jij dat vanuit de browser doet. De informatie van Google staat namelijk niet op één server, maar vele servers.
Ik zie ook wel vaker springende websites. Dit is vaak in de beginperiode van een website of pagina het geval. Na verloop van tijd wordt het meestal rustiger. Met ‘seo forum’ sprong ik ook een maand of twee ‘all over the place’, maar nu lijkt er rust in de zaak te komen.
Ik zie overigens niet wat je bedoelt met een ‘mooie truc’. Een truc waartoe?
Er moet toch ergens vandaan een linkje naar die pagina liggen, anders kan Googlebot de pagina echt niet vinden. Een andere mogelijkheid is dat de url van de pagina bij Google is aangemeld: Een URL toevoegen aan Google
-
AuteurBerichten