Aangemaakte reacties
-
AuteurBerichten
-
Het is nooit anders geweest.
Toch zijn er veel bronnen die anders beweren zoals:SEOmoz | How PageRank Works & Why the Original PR Formula May be Flawed (2007)
Rand and I (SiFishkin, red.) both tend to believe that it is likely Google has changed and refined the PageRank algorithm many times.
Hierin staat ook later:
I’ve noted that many in the comments seem to be confused about the relationship between the information in this blog post and the PageRank Google shows in their toolbar. I have NOT studied the toolbar PageRank – this information relates only to the PageRank formula. The rounding and inconsistency of updates to toolbar PageRank makes it very difficult (perhaps impossible) to connect with the formula.
Natuurlijk is het goed de originele formule aan te houden, we weten immers niet wat er veranderd is. Maar kun je de TBPR aanhouden als argument? Daar begon deze discussie mee.
Na de laatste Toolbar Pagerank van Google in Oktober kom ik dit soort dingen tegen:
My TBPR increased from 1 to 2, but my search visitors count has decreased. Why? Google gave me PR, but robbed me of my visitors?
of aan de andere kant:
Hits on my site are up 1200% in 3 months, we are top of page 1 in google for most keywords but my TBPR went down from 4 to 3! Can anyone explain?
In het beste geval klopt je verhaal dat de TBPR een oude logoritmische (waarom 11?) verdeling van de PR. Ik zie hier geen bewijs voor en ook niet dat Google deze richting op wilt. Waarom haalt Google anders de TBPR uit de Webmaster Tools?
Susan Moskwa from the Google Webmaster Central team explained it was removed because Google keeps telling webmasters that they shouldnt focus on (ToolBar, red.) PageRank so much. They felt it was silly to keep telling webmasters that, and at the same time show it in Webmaster Tools. So Google removed it from Webmaster Tools
Het zou mij niets verbazen als Google op een dag de hele TBPR niet meer laat zien….
Leesvoer voor de geïnteresseerden:
What Is Google PageRank? A Guide For Searchers & Webmasters
Pagerank Explained. Google’s PageRank and how to make the most of it.
Google October 2009 Toolbar PageRank UpdateIk sluit met aan bij site-maker. Voor de meta description geldt een maximum van 150 tekens, dus de volledige inhoud van het document kopiëren lijkt een beetje veel. Ik gebruik ons eigen tooltje om het aantal karakters bij te houden per pagina: Tel het aantal karakters – GoalGorilla
Ik zei toch dat de discussies steeds interessanter worden ;).
Okok, jij gaat dus uit van 3 rankings: TBPR, PR en Overall Rank. Waarvan er slechts 1 gegeven wordt, de TBPR. Jij zegt dat deze direct correleert met de PR (die we niet weten) en dat deze weer 1 van de 200 factore van de Overall Ranking is, die we al helemaal niet weten. Dat de TBPR niet correleert met de uiteindelijke ranking kunnen we zien aan de resultaten in Google. Hmm… dit verhaal heeft veel gaten… Hoe weten we dat TBPR correleert met PR en dat de PR nog steeds dezelfde formule is als door Google gepattenteerd?
Deze PR wordt slechts zo eens in de zoveel maanden herberekend omdat het zoveel rekenkracht kost.
Waar basseer je dit op en als dit al zoveel rekenkracht kost, hoe zit het dan met de Overall Ranking? Eens per jaar?
Ik denk dat de TBPR eens per maanden herberkend wordt (waarom Google dit uberhaupt nog doet is de vraag) en dat de PR veel vaker wordt berekend.
Waar zijn de andere guru’s? Ik wil graag zoveel mogelijk input om dit duidelijk te krijgen! 🙂
@PaulG, dat laatste stukje gaat over domeinen, niet over URLs
deze website staat zonder in Google boven de eigen website als je in Google zoekt op Dierenpark Emmen.
Ok, nogmaals. Als de website boven de andere site staat is de PageRank uiteraard hoger dan die van de eigen website, anders zou deze pagina niet hoger ranken. Waar je naar hebt gekeken is de Toolbar PageRank. Dit is iets anders en kun je dus niet als argument gebruiken.
Redirects check ik altijd met deze Redirect Checker, die werkt goed.
We zien dan dat er geen 302 of 301 wordt gebruikt, maar een meta refresh redirect na 0 seconden. Blijkbaar ziet Google dit als een permanente redirect en heeft daarom deze tijdelijke website inclusief sitelinks bovenaan gezet op dit trefwoord.Dit heeft dus niets met links, content of een bezoek van Matt Cutts aan de dierentuin (:p) te maken.
Ik heb even contact opgenomen met Dierentuin. Ze waren hier niet van op de hoogte. Ik heb ze aangeraden een tijdelijke 302 redirect te plaatsen ipv de meta refresh.
@site-maker, we hadden het over het verminderen van het aantal HTTP requests. Stel je website wordt door CSS aanpassingen 30 Kb groter, maar je verminder het aantal requests door de plaatjes te mergen met 20, dan is dit nog steeds erg gunstig voor je laadtijd..
Ik ben helaas geen designer, het heeft te maken met het volgende op YouTube:
.yt-uix-expander-arrow{ height:16px; width:12px ;margin-right:4px; background:url(http://s.ytimg.com/yt/img/master-vfl125983.png) no-repeat 0 -322px; }
Dit wordt ook wel PNG masking en positioning genoemd. Misschien zijn er nog desginers op het forum die hier meer van weten..?
dus jij zegt dat ik gewoon nog even 2 weekjes moet afwachten, en dan waarschijnlijk resultaat zal gaan merken?
Dat denk ik wel. Het ligt er natuurlijk ook aan of de anchors goed zijn, hoe hoog de concurrentie is etc. etc. etc. Dus moeilijk om zo vanaf hier te zeggen. Houd met een tool je rankings in de gaten!
Goede vraag. Ik ben dit nog niet eerder tegen gekomen. Wel maakt Hyves soms ook dit soort subdomeinen aan. Mijn gevoel zegt dat Google de streepjes inleest als spaties en meerdere witruimtes wegfiltert. Er zou dan niet veel optimalisatie verloren gaan. Zijn de title tags wel in orde?
Ik kom me voorstellen dat bezoekers minder snel geneigd zijn te klikken op dit soort ‘vreemde’ URLs en zou daarom proberen ze aan te passen. Dit moet te doen zijn met een CMS. Let wel op goede 301 redirects bij deze operatie.
18 november 2009 om 10:55 am In reactie op: Welke SEO tools gebruiken internationale SEO professionals #21454Met Link Assistent ben ik zelf niet bekend, maar heb er wel positieve geluiden over gehoord. Het is inderdaad interessant om te kijken hoe SEO door grotere organisaties het beste kan worden opgepakt. Er is veel maatwerk voor veschillende sites nodig. Dus een taskforce met kennis van zaken, ondersteund door data en met een goed online project management systeem moet een heel eind komen.
Het Link Assistent pakket lijkt me voldoende als basis om een websites zoekmachine vriendelijk te maken en een link strategie uit te zetten. Met Omniture kunnen vorderingen goed worden bijgehouden.Wat doen jullie op het gebied van analytics en usability optimalisatie?
Als je bang bent dat je dingen op het gebied van SEO over het hoofd ziet kun je altijd contact met ons opnemen via onze website.
1) Betalen voor links om Pagerank door te geven is door Google verboden. Waarschijnlijk zit er een nofollow attribuut aan de link waardoor er geen PageRank wordt doorgegeven.
2) Gebruik tools zoals LinkDiagnosis.com om te zien of de links al door Yahoo! zijn geindexeerd, Google zal dan snel volgen. Deze tool laat je ook zien of de anchors goed zijn en of er PageRank wordt doorgegeven. Tevens kun je de Toolbar PageRank zien, deze is niet heel betrouwbaar en hier zou ik ook niet op sturen. (Maar PageRank zelf natuurlijk wel!!)
3) Doe trefwoord en concurrentie onderzoek. Vanaf welke websites worden concurrenten op bepaalde trefwoorden gelinkt? Zorg dan dat je daar ook links krijgt! Dit is de makkelijkste en beste strategie die je kunt volgen.
Wij doen linkbuilding per trefwoord! Hier moet je ook je anchor teksten in de link op inrichten. Op specifieke trefwoorden met goede linkbuilding kun je in 2/3 weken goede resultaten krijgen. Heb je alleen links met je sitenaam erin naar je homepage, dan zal je homepage meer kracht krijgen en meestal ook de trefwoorden die je op je homepage in je title hebt opgenomen. Verwacht op deze manier echter niet dat al je landingspagina’s ook direct meer kracht krijgen. Dit zal zeker meer tijd in beslag nemen, denk aan maanden.
18 november 2009 om 9:47 am In reactie op: Welke SEO tools gebruiken internationale SEO professionals #25101Paul,
Er is niet één tool die alle SEO werkzaamheden kan coordineren. Maak eerst eens een lijst van dingen die je wilt dat de tool zou doen, bijvoorbeeld SERP scannen, trefwoordonderzoek, concurrerende websites scannen etc.
Nu kun je tools vinden die dit goed doen. (of ze zelf bouwen maar dat raad ik af) Ik raad je aan te kijken naar de tools van SEOmoz, die zijn uitgebreid. Natuurlijk mag een goed web analytics pakket niet ontbreken. Google Analytics kan, maar let op de gevoeligheid van deze data. Daarnaast zou ik ook kijken naar een online project management systeem zoals Basecamp van 37signals om de boel te coordineren en ToDo’s aan te maken.Succes!
Dat klopt dit zijn nu twee requests. Elk plaatje is er bijvoorbeeld nog eentje. En nog twee naar Google Analytics etc. Zo zitten we toch nog op 39 requests voor GoalGorilla.com.
Om dit verder terug te dringen kun je bijvoorbeeld heel veel plaatjes in één plaatje stoppen en deze in een keer inladen. Dit doen grote sites zoals YouTube dan ook: http://s.ytimg.com/yt/img/master-vfl125983.png
Goede vraag, ik was wellicht niet helemaal duidelijk genoeg.
Drupal comprimeert witruimtes in de CSS. Maar daarnaast worden de bestanden ook geaggregeeert of samengevoegd (van aggregation). Als laatste wordt gebruik gemaakt van CSS Sprites. Dit alles gebeurd serverside.Tegenwoordig hebben grotere sites verschillende CSS en JS bestanden die extern worden ingeladen in de HEAD van een website. Elk request hiervoor naar de server kost tijd.
Drupal kan automatisch externe bronnen zoals CSS en JavaScript
optimaliseren, wat zowel de grootte als het aantal aanvragen aan uw
website kan verminderen. CSS-bestanden kunnen samengevoegd en
gecomprimeerd worden tot één enkel bestand, terwijl
JavaScript-bestanden samengevoegd (maar niet gecomprimeerd) worden.
Deze optimalisaties zijn optioneel en kunnen de serverbelasting,
benodigde bandbreedte en paginalaadtijden verminderen.Hoe ziet dit eruit in de praktijk?
1) Zonder Bandbreedte-optimalisatie:
HTTP Requests – 54
Total Weight – 211.9K2) Met Bandbreedte-optimalisatie:
HTTP Requests – 39
Total Weight – 204.7KDit gaat dus niet zozeer om de grote van je pagina, maar puur om het aantal requests. Dit kan aardig oplopen in laadtijd besparing.
Een zeer goed artikel hierover mbt Drupal staat op:
Improving Drupal’s page loading performance | Wim LeersDaarnaast heeft de Yahoo! Yslow tool zeer veel uitleg om je pagina nog sneller te laden! Zo gebruiken we ook Smush.It™ om plaatjes te verkleinen.
Succes!Ja interessante video! Laadsnelheden was al eerder aangekondigd, maar nog niet zo nadrukkelijk. Via Google Webmaster tools kun je kijken hoe lang de Google bot erover doet om je pagina in te lezen. Daarnaast kun zijn tools als Firefox extensie YSlow goed om te kijken hoe snel je website is en waar je verbeteringen door kunt voeren.
Snelheid is dus een belangrijke factor bij het kiezen voor hosting en een CMS systeem. Het CMS dat wij gebruiken (Drupal) comprimeert bijvoorbeeld externe JS en CSS bestanden zodat er minder requests naar de server hoeven te gaan.
-
AuteurBerichten
Gerelateerde berichten:
- Het gaat niet om kwaliteit, maar kwantiteit 12 februari 2023 10 Links in grote blogs op de meest hoogwaardige sites met een DA van 50+ vs 10 links op schimmige copycat sites van startpagina =…
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…