Aangemaakte reacties
-
AuteurBerichten
-
Er is mij gevraagd om voor een bedrijf opererend in Azie.
Een aantal websites te maken.
Dit bedrijf maakte deel uit van een groot bedrijf wat gedeeltelijk verkocht is
De eigenaar van het gedeelte van het bedrijf dat niet verkocht is ( de regio Azie).
Wil in diverse landen waar hij plaatselijke agenten heeft.
Volledige websites in de locale taal.
In veel Aziatische landen wordt buiten de locale taal, vaak gezocht in de Chinese en Engelse taal
zeker wanneer het om hoogwaardige technische systemen gaat en de doelgroep een universitaire opleiding heeft genoten.Het idee is om in ieder land een volledige website te maken in de locale taal van diverse landen.
Een volledige website te maken in het Chinees en Engels, waar de bezoekers van een website in de lokale taal doormiddel van een taalkeuze menu naar toe worden gelinkt.
De meertalige website zal worden gehost op een snelle server in de regio. De websites
in de locale taal zullen worden gehost in de diverse landen met een unieke domein naam.
Mijn angst en vraag is zal met name google deze locale websites zien als bumpersites en als spam beschouwen.Als het unieke websites zijn en de geotargeting staat correct ingesteld lijkt me dit geen probleem. Je richt je namelijk op specifieke bezoekers.
Je zou ook de hoofdsite kunnen uitbouwen en je verdere seo werk daar op richten zodat die ene site heel goed wordt ipv per land verschillende sites. die moeten namelijk ook allemaal worden bijgehouden etc.
Onze website Cateringbedrijf FestiFood voor Arnhem, Nijmegen, Gelderland hebben we een tijd geleden gewijzigd van html naar php. Vroeger scoorde die in de top 10 voor een aantal zoekwoorden. Nu scoort hij helemaal nergens op. Heeft iemand een idee wat er gebeurt kan zijn?
HTML of PHP maakt niet uit, PHP wordt uiteindelijk omgezet naar HTML zodat de site kan worden weergegeven in de browser.
In Google staan twee pagina’s geindexeerd, de nieuwe site en de oude site.( indexed in Google )
De oude site is eigenlijk dezelfde als de nieuwe, met het verschil dat er nu jQuery wordt gebruikt ipv JavaScript om de verschillende teksten te tonen.
De oude site zou sowieso niet meer in de index mogen staan. Deze kun je met een robots.txt uit de index halen (en webmaster tools voor een snellere verwijdering).
Uiteindelijk is er dus 1 pagina over die Google “kent” met relatief weinig inhoud. Beter zou zijn om aparte pagina’s te maken denk ik voor de verschillende onderdelen zodat je deze pagina’s kunt optimaliseren voor de verschillende termen.
Daarnaast heb je nog concurrentie, andere websites over hetzelfde onderwerp. Zover heb ik niet gekeken, maar ik kan me voorstellen dat deze misschien ook hun site vernieuwd hebben, en misschien hun seo hebben uitbesteed waardoor ze jullie site wegdrukken van de eerste pagina. Ook zal de Panda update meespelen.
Je kunt in AdWords onder het menu rapporten (of rapportage) Google Analytics aanklikken, daar kun je de accounts koppelen. In Analytics kun je dan ook bij de instellingen van het profiel aanvinken of je de gegevens uit AdWords wilt importeren.
Je kunt ook links plaatsen op sites die wel vaak bezocht worden. Dan komt google ook sneller. Of een keer pingen: Ping-o-Matic!
Beste Patriesja,
Toevallig ben ik ook bezig om deze materie te bestuderen:
Hoe kom je hoog in de zoekresultaten van Google Places.
Ik wil je graag verwijzen naar een interessante video waar, op basis van nauwkeurige studies, wordt aangegeven hoe je hoog kan scoren in Google Places.
Link: Hoger in Google Places
YouTube – Google Places SEO & Marketing
YouTube – Google Maps Marketing – Learn How Rank Well Within Google Map’s 7-Pack
Goed verhaal. Jammer dat het van 23 November 2009 is. De vraag is of alles nog wel relevant is natuurlijk.
Als je zoekt op bedrijfsnaam is de kans groot dat je veel plaatsen in de SERP gebruikt. Dat is iets wat Google heeft ingebouwd. Zoek maar eens op Apple bijvoorbeeld.
Waarom het hoger ranked is lastig te zeggen zo, misschien staat het gebruikte woord niet op de homepage.
Maar waarom zou je de subpagina’s willen verwijderen uit Google? (dit kan overigens door robots.txt aan te maken, of in WordPress robots op “none” te zetten bij de pagina/post)
Dat kun je instellen in Google Analytics. Hier staat een stappenplan:
Hoe stel ik de sitezoekfunctie in voor mijn profiel? – Analytics Help
De queryparamter zou je even moeten nakijken. Zoekopdracht doen op je site en kijken in de adresbalk. Waarschijnlijk is dit de letter ‘s’.
Meer bezoekers voor een bepaalde zoekterm
Hoger ranken voor een bepaalde zoekterm
Lagere bounce op (een) bepaalde pagina(‘s)
Langer bezoekertijd op de site
Meer contactaanvragen
Meer aanvragen van bedrijfsfolders
Meer verkoop bepaalde artikelgroep
etc…
etc…
etc…Sommige doelstellingen kun je misschien pas bepalen als je meer statistieken hebt. Maar in principe kan alles. Doelstellingen kunnen voor ieder bedrijf anders zijn.
Nee de meta expires is niet echt nuttig. Deze zou aangeven dat een bepaalde pagina bijvoorbeeld t/m 21-07-2011 geindexeerd mag worden door zoekmachines en daarna niet meer.
Bijvoorbeeld als je een evenement organiseert en dit is op 21-07-2011 afgelopen. Als de spider dan langs komt na 21-07-2011 zou deze de pagina niet meer indexeren. ( vaak zie je dat deze tag verkeerd wordt gebruikt omdat ze vaak denken dat het gaat over browser caching. Zou deze tag echt werken, dan zouden er waarschijnlijk een stuk minder pagina’s geindexeerd zijn nu 🙂 )
Iets anders dus dan de melding van Page Speed. Dit gaat over browser caching. Dit stel je in op de webserver. Daarmee geef je aan dat een bepaald bestand, of map, na het downloaden van de client (de bezoeker) pas opnieuw gedownload hoeft te worden na een bepaalde tijd.
Dus je bezoekt een website en download de afbeeldingen van de site. Als je de volgende dag weer komt, en je hebt je lokale cache niet verwijderd (dus de afbeeldingen staan nog op je computer), en de Expires header staat op 1 maand, dan worden de afbeeldingen niet opnieuw gedownload waardoor de laadtijd van de site sneller wordt.
Kom je een maand later nog een keer, dan wordt alles opnieuw gedownload.
Je kunt ook &gl=us in de adresbalk toevoegen na een zoekactie. Dan geo locate je op US.
Interessant: Stas en Plotnikov lijken me goede voorbeelden van pushers van Direct Pc Reparatie. Het feit echter, dat wij dat zo makkelijk kunnen zien maakt dat Google dat ook kan.
Wat me opvalt is dat als ik zoek op “PC reparatie eindhoven”, Direct Pc Reparatie weliswaar goed scoort (3), maar geen bedrijfsvermelding krijgt.
Grappig, bij mij staat DPR helemaal niet in de normale resultaten en in de places resultaten (op google.nl, dus niet maps) op nummer 7 en ik woon in Eindhoven. Verder is hun Places pagina ook helemaal niet bijgewerkt met relevante informatie (bijv. categorieen). Dus waarschijnlijk weegt dit toch zwaarder dan recensies. Ik kan hun bedrijfsnaam trouwens ook niet vinden op kvk.nl, misschien gebruikt G dit wel als betrouwbare bron…
Het zou ook wel heel makkelijk zijn om zo een concurrent naar beneden te plaatsen. Ben toch wel benieuwd wat ze hier van zeggen op het google forum…. dus als Glompie deze vraag niet stelt wil ik het wel doen!
Ik zal trouwens eens wat voorbeelden geven:
Google Maps
Google MapsGoed kijken 😮
OMG! Dan ben je niet even zielig zeg 🙂 haha goed gevonden!
of zijn dit jouw accounts glompie 😉
Je zou dit ook eens kunnen plaatsen op het forum van Google, daar zitten ook wat medewerkers van Places die wellicht iets kunnen betekenen.
Keep us posted!
heren en/of dames,
ik heb een voor mij lastige vraag.
als je een aantal webshops wilt beginnen heb je een aantal opties kwa software.
nu ben ik wel bekend met magento als ook prestashop, maar onbekend met de programma’s waar je voor moet betalen (per maand of eenmalig).
nu weet ik de globale voordelen en nadelen hiervan, maar het belangrijkste is toch of alles te optimaliseren is m.b.t. SEO.
Bij magento is dit bijvoorbeeld zeker te doen maar het programma is redelijk zwaar en niet al te makkelijk voor een simpele webshop. ook zijn modules die ik nodig heb niet allemaal gratis.is het zo dat het optimaliseren m.b.t. SEO bij de licentiesoftware voor webshops niet of nauwelijks kan en je dus altijd moet kiezen voor een magento of prestashop o.i.d.?
Ik heb een aantal bekenden die ook webshops hebben en allen draaien zij met opensource cms systemen als magento met zeer veel succes. maar dit heeft zeker veel tijd en ook geld gekost (programmeurs, modules etc.).
Het belangrijkste vind ik en jullie uiteraard ook dat de site goed gevonden moet worden, maar is dit ook mogelijk met die kant en klaar software als logivert of mijnwebwinkel.
ik hoor graag van jullie een duidelijk antwoord, want dit is voor mij nergens te achterhalen.
Het lastige met sites van mijnwebwinkel etc. is dat je niet zelf in de bestanden kunt tbv wijzigingen. Volgens mij zijn ze wel redelijk on-page geoptimaliseerd, maar dat kan ook weer afhankelijk zijn van welk pakket je neemt (bijv of meta’s aangepast kunnen worden). Off-page kun je altijd doen. Later zou je dan een eigen shop kunnen hosten en de on-page verbeteren + conversieoptimalisatie toepassen. Vraag wel na of je makkelijk over kunt naar een eigen shop (en de producten etc. kunt meenemen).
Ik kan de rapporten nog steeds niet exporteren naar Excel, meer mensen dit probleem?
(En/Of een oplossing:D)Je kunt toch wel exporteren naar CSV en dit weer importeren in Excel ?
Ik ben bezig met de optimalisatie van de website van Freshmen media. Ik ben redelijk thuis in SEO, maar heb een aantal specifieke vragen op het gebied van on-page SEO:
– De website maakt gebruik van één ontwerp, waarbij alleen de content verandert per pagina. Voor het ontwerp zou het ideaal zijn als de tekst maximaal 400 – 500 tekens (incl. spaties) in beslag neemt. Dit komt neer op ongeveer 70 – 80 woorden. Ik vraag mij alleen af of dit voldoende tekst is om met de webpagina goed te kunnen scoren op google?
Voor de duidelijkheid:
Dat is een beetje afhankelijk van welke woorden het zijn. Als het om “hypotheken” gaat zal het lastig worden, als het om “hypotheken speciaal voor ouders met 3 kinderen zonder man” zul je misschien wel nummer 1 staan.
Daarnaast heb ik een aantal artikelen gelezen over laadtijden van webpagina’s, waarbij 1 sec. snel is, en 10 sec. als langzaam wordt gezien. Daarnaast zie ik dat Google steeds meer waarde hecht aan de laadtijd van een website/pagina.
– Hoe meet Google de laadtijd van een webpagina? Dit is toch sterk afhankelijk van de snelheid van internet? Nemen zij hiervoor een gemiddelde internet snelheid?
– De meeste webpagina’s bij mijn website laden nu in ongeveer 5 seconden, is dit te traag of is dit geen probleem? Ik maak in mijn website gebruik van Analytics en ook een Twitter plugin telt Google deze ook mee bij de laadtijd?
Alvast bedankt voor de reactie(s).Alles wordt meegenomen in de laadtijd, want alles wordt immer geladen. Je kunt de laadtijd van een pagina meten met een firefox-plugin als y-slow of pagespeed. Deze geven ook meteen de knelpunten weer. Webmastertools heeft ook een diagnose voor de laadtijd en geeft deze in een grafiek in de tijd weer.
-
AuteurBerichten