SEO training-, kennis- en adviescentrum › SEO forum › SEO vragen en discussies › Snelheid van laden: graag binnen 0.5 seconde
- Dit onderwerp is leeg.
-
AuteurBerichten
-
-
7 mei 2010 om 10:38 pm #21717
Jullie zullen het allemaal wel hebben gelezen neem ik aan: Google ziet graag dat websites binnen een 0.5 seconde geladen zijn.
Om eerlijk te zien begrijp ik het niet helemaal goed volgens mij. Bij de meeste websites duurt alleen het request naar (bijvoorbeeld) index.html en het laden van dat bestand al 0.8 seconde. Dan moet alle content nog gedownload worden, etc.
Wat ik me dan ook af vraag: bedoelt Google dat de complete pagina binnen 0.5 seconde moet zijn afgebeeld of dat het request van de pagina compleet moet zijn? Die laatste opmerking lijkt misschien vreemd maar als je je pagina goed weet te regelen met caching dan staat de site er de eerste keer binnen 3 seconden op het scherm en alle vervolgpagina’s binnen 0.5 seconde.
Ik verwacht dat Google echt bedoelt dat ook de eerste pagina binnen 0.5 seconde op het scherm staat maar dan vraag ik me af hoe je dat moet realiseren. Ik ben de afgelopen dagen flink in de weer geweest om een flink gemodificeerde versie van osCommerce te optimaliseren. Maar het laden, renderen en afbeelden van een pagina MET 20 ot 40 productfoto’s binnen die tijd is hele opgaaf.
Inmiddels ben ik zo ver dat ik van de 180(!) queries die standaard nodig zijn terug heb weten te dringen naar 19 stuks. Door een deel van de pagina te cachen wordt dat aantal nog verder terug gedrongen. De laadtijd is van 5.5 seconde terug gebracht naar ongeveer 3 seconde maar verder krijg ik momenteel niet voor elkaar.
Als er interesse bestaat wil ik best aangeven hoe ik die optimalisatie heb uitgevoerd maar ik zou het ook interessant vinden om te weten hoe jullie over dit onderwerp denken en wat jullie voor stappen hebben ondernomen op dit vlak.
-
10 mei 2010 om 6:38 am #25629
Ik ben ook flink aan de slag gegaan om de laadsnelheid van mijn website te verbeteren.
In feite heb ik dezelfde aanpak gekozen: cachen waar mogelijk, compressen / gzip-en voorzover nog niet gebeurd was en niet elke keer een postback als het niet nodig is. DNS-lookup’s kost ook tijd.In het artikel op het google forum staat meer uitgelegd hoe Googlebot aan de informatie komt: namelijk van de bezoekers die de Google toolbar hebben geinstalleerd met de PageRank optie aangezet. Oftewel, heb je veel bezoekers met trage verbindingen, dan doe je er niet veel aan, dan gewoon goed tunen. Hier staat een goede uitleg:
Official Google Webmaster Central Blog: Your site’s performance in Webmaster Tools
Dus het gaat niet alleen om de 1e keer die trager kan zijn, maar ook om het surfgedrag van de bezoeker.
-
10 mei 2010 om 1:20 pm #21718
Ik las dit op Webwereld dus die 0.5 sec is niet echt hard blijkbaar:
Update:
Intro aangepast. Daaruit viel op te maken dat Google de maximale laadtijd van een halve seconde oplegde als hard criterium voor de pagerank van websites (van derden). Dat is niet het geval.
-
-
AuteurBerichten
Je moet ingelogd zijn om een antwoord op dit onderwerp te kunnen geven.