Aangemaakte reacties
-
AuteurBerichten
-
Hallo Henry,
Ik ben ook nog in het zelfde stadium…
Bij het tabblad “gegevenskwaliteit” staat bij mij: “uw gegevens zijn correct”.
Maar alles staat in het Dashboard nog op afgekeurd.Nu werk ik zelf nog aan de kwaliteit van de images, want de verwijzing in je productfeed moet naar een image verwijzen die 300×300 of maximaal 400 bij 400 is. Dat schijnt behoorlijk nauw te luisteren. Een thumbnail is echt killing! (no-no)
Extra afbeeldingen converteren speciaal voor Google kost me best wel weer tijd…Ik zou jou 2 dingen willen adviseren.
1. kijk nog eens goed op het forum van het Google Merchent Center. Daar staat meer informatie en loopt iedereen tegen dezelfde fouten op. Zoek hier maar eens:
Submitting Your Content – Google Merchant Center Help
2. Heb wellicht even geduld. Ik lees dat je datafeed eerst met de hand beoordeeld wordt, maar in het forum lees ik weer dat het gewoon automatisch gaat, maar vaak zeker 72 uur duurt voordat je gegevens verwerkt worden in de Google resultaten.Anders advies 3: stel je vraag gewoon in het forum van het Merchent Center. Ik kreeg op zondagavond binnen een uur antwoord!!!
Succes, Kees (hou me op de hoogte!)
Vanaf vandaag / 3 mei is Google Shopping in BETA nu ook voor de nederlandse markt beschikbaar.
Zie hier een aankondiging: Google Product Search nu Google Shopping
De google shopping NL beta site staat hier: Google Shopping
Ik ben benieuwd wanneer de shopping gegevens uit de datafeeds of de product snippets tussen de overige zoekesultaten komen te staan.
Vanaf 3 mei is Google Shopping Nederland beschikbaar.
zie hier een link met een korte uiteenzetting:
Google Product Search nu Google Shoppingen dit is de link naar Google Shopping: Google Shopping
Ik ben inderdaad benieuwd wanneer de datafeed / snippets ook werkelijk tussen de “gewone” resultaten worden getoond.
Kees
Hallo Bert,
Geen punt.
Stuur je me je email?
Ik heb je een berichtje gestuurd.Kees
Hallo Evelien,
Ik vind het echt een goed verhaal en er staan zeker nuttige tips in.
Ik vraag me echter ook af of je de tekst zelf ook goed hebt gereviewd op je eigen aanbevelingen.
Ik zou het nog mooier vinden als je bijvoorbeeld de totale tekst beter had opgesplitst omdat af en toe de teksten best wel lang zijn.Laat ik een paar voorbeelden geven:
“Paginas met teksten waarbij verticaal scrollen nodig is moet zoveel mogelijk vermeden worden. Een overkill aan informatie jaagt de bezoeker alleen maar naar de concurrent.”
Je tekst is op mijn scherm zo’n 3 a 4 pagina’s lang..“Controleer de tekst op grammatica- en spellingfouten.”
wat dacht je van:
– Voor wie is de informatie bedoelt? (bedoelt met een d aub)
– Zo moet een particulier anders benadert worden dan een internationaal concern. (benadert met een d aub)
– Houdt de informatie kort en krachtig door het … (Houd zonder t aub)Nogmaals, ik vond het prettig om te lezen en hoop niet dat je in de verdediging schiet!!!
groet, Kees
Zelf heb ik veel gehad aan de Search Engine Optimization Toolkit.
Die spit je website helemaal door en komt met vele aanbevelingen:Search Engine Optimization Toolkit : The Official Microsoft IIS Site
Er is ook een video uitleg van.
Ik ben ook flink aan de slag gegaan om de laadsnelheid van mijn website te verbeteren.
In feite heb ik dezelfde aanpak gekozen: cachen waar mogelijk, compressen / gzip-en voorzover nog niet gebeurd was en niet elke keer een postback als het niet nodig is. DNS-lookup’s kost ook tijd.In het artikel op het google forum staat meer uitgelegd hoe Googlebot aan de informatie komt: namelijk van de bezoekers die de Google toolbar hebben geinstalleerd met de PageRank optie aangezet. Oftewel, heb je veel bezoekers met trage verbindingen, dan doe je er niet veel aan, dan gewoon goed tunen. Hier staat een goede uitleg:
Official Google Webmaster Central Blog: Your site’s performance in Webmaster Tools
Dus het gaat niet alleen om de 1e keer die trager kan zijn, maar ook om het surfgedrag van de bezoeker.
Hallo,
Ik heb de impact van mijn sitemap nu 1,5 week aangekeken en er gebeurt wel iets:
– er zijn meer foto’s geïndexeerd dan zonder deze speciale sitemap.
– de rating van mijn foto’s verandert echter niet!Kortom: het is geen haarlemmerolie. Als je een pagina hebt, die goed in de ranking staat, dan wordt je foto ook goed geindexeerd (als de foto nog niet gevonden werd..).
Als je zoals in mijn geval duizenden dynamische detailpagina’s hebt waarvan de foto dus ook dynamisch geladen wordt, dan schiet je weinig op. De detailpagina’s per stuk hebben allemaal een eigen zeer lage ranking, omdat ik weinig externe links heb naar de specifieke detailpagina’s.
Ik heb in 1e instantie 1000 pagina’s met foto’s gegenereerd en ik wacht nu gewoon een tijdje af wat er nog meer gebeurt.Het lijkt me dan ook alleen een interessant gereedschap als je een webpagina hebt met veel foto’s en je wilt zelf expliciet bepaalde foto’s wel en andere niet geindexeerd hebben.
gr, Kees
-
AuteurBerichten