Aangemaakte reacties
-
AuteurBerichten
-
Wat ik uit het artikel opmaak is dat het maken van erg veel 301 redirects vooral voor de maker erg inefficiënt is, maar ik lees niet terug dat het mijn website gaat vertragen
“However, once the rules become more complex, such as a directory or site transfer, the redirect 301 command becomes extremely time inefficient. Creating a redirect 301 for thousands of pages can easily takes days of boring grunt work.”Vergeet niet dat je met elke 301 redirect wat inlevert op de SEO sterkte van die pagina. Met elke 301 verlies je net als met een link iets van deze waarde. Gebruik je dus veel redirect, buiten het handwerk, geef je elke pagine dus eigenlijk een automatische link naar de nieuwe pagina. Het zal dus wel invloed kunnen hebben op je SEO sterkte.
check deze video van Matt Cutts over dit onderwerp:
http://www.youtube.com/watch?v=Filv4pP-1nwDit gezegd kan het overgaan naar een vriendelijkere link-structuur wel weer meer waarde brengen en onderaan de streep dus een verbetering zijn.
Veel regels in je htaccess zal de snelheid vertragen.
Kan je geen gebruik maken van wildcards?
bijvoorbeeld:
RewriteRule ^/users/(.*)$ http://www.example.com/profiles/$1 [R=301,L]
Of bijvoorbeeld:
RewriteRule ^(.*)\.html$ $1.php [R=301, L]
meer voorbeelden vind je hier.
Zou je een voorbeeld kunnen geven van welke URLs naar welke URLs je probeert te redirecten?
Crawl je site zelf eens helemaal. Als je zelf naar die pagina’s verwijst is het verstandig die aan te passen. Met een goede crawler ben je instaat om alle bestanden te checken op redirects, 404’s, canonicals enz.
Je komt er dan in ieder geval achter of je niet zelf nog een achterdeur naar die oude URL structuur hebt en je ziet direct of de 301 redirect correct is geplaatst.
Tools om dit te doen zijn Screaming Frog, beperkt gratis, maar wel heel interessante informatie.
Of Xenu’s Link Sleuth, helemaal gratis, maar de resultaten zijn wat lastiger te doorgronden.Ik ken de grens niet (als die al bestaat) vanaf welk aantal of percentage 404’s je site nadeel ondervindt maar ben de 404 meldingen in webmastertools al een hele tijd aan het negeren en dat bevalt prima. Je komt daar de gekste links tegen die je zelf nog nooit gemaakt hebt.
Negeren is voor mij niet de meest verstandige optie. 404 data is wel degelijk interessante informatie. Het verteld je bijvoorbeeld welke structurele problemen je hebt in je site. Daarnaast kan je pagina’s die geen 404 zouden mogen geven ontdekken. Ik ben wel met je eens dat er vaak vreemde links tussen staan.
Voor mij is het weerrapport niet zo interessant. Ik vind het “metrics” stuk veel interessanter.
Het verteld bijvoorbeeld op de tab “Domain Diversity” dat er over de laatste 90 dagen een duidelijke neerwaartse trend is in het aantal verschillende domeinen op een SERP. Ik merk dit in de industrie waarin ik actief ben, maar het is goed om te zien dat dit dus over de hele breedte gebeurd.
Ook de tab trend weergegeven op de “SERP Count” en de Exact (of Partial) match domeinen verteld veel over waar Google het algoritme veranderd.
Het geeft je dus een breder beeld over wat Google doet. Het helpt je om uit je eigen op een site gerichte blik te treden en te zien wat er werkelijke bij Google gebeurd.
Grappig … was even aan het kijken op die site en tijdens mijn bezoek kreeg ik de melding
This website is offline
What’s wrong?
The most likely causes:
The server is down for maintenance
There may be a network problem
The site may be experiencing excessive loadHet moet wel een heel sterk link profiel hebben 🙂
Maar ligt het aan mij of zien we op SEOguru’s SEOforum steeds vaker van die berichten met als hoofddoel een link naar de site van de plaatser. Met voornamelijk de gedachten dat ze weer een back-link hebben naar hun site.
Is het niet zo dat Google de URL variabele “ID” negeert.
Ik heb daar op een Google document wel eens iets over gelezen. Misschien is het een bel zonder de klepel, maar het is iets om over na te denken. Ik zoek nog even verder, maar misschien dat de SEOguru hier meer over weet?
De misconceptie van pagerank zit volgens mij in de 4/10 die getoond wordt en de werkelijk pagerank.
Pagerank is een algortime waarmee berekend wordt wat de totale link-waarde/sterkte van een pagina/domein is. Dit algoritme wordt nog altijd gebruikt en herberekend zodra er nieuwe links ontdekt worden. Hoe bepaal je anders de sterkte en invloed van links voor een pagina?
De waarde die getoond wordt in de menubalk (de 4/10) is niet de echte pagerank en deze wordt ook nauwelijks herberekend. Voor die “pagerank” klopt de stelling. Maar is dat dan meteen de pagerank? Het is daarom, zoals SEOguru zegt, belangrijk om te proberen te begrijpen hoe de werkelijke pagerank wordt berekend.
Dit is overigens meestal een brug te ver voor klanten. En in dat oogpunt klopt de stelling misschien weer wel. Veel klanten kijken naar dit getal. Ik heb hier als inhouse SEO-er ook last van. Het is een discussie die regelmatig weer terugkomt.
Viraliteit kan ook nog een factoor zijn, een app die ineens 1000x gedownload word zal mogelijk ook beter ranken.
Dit zal zonder meer ook een factor zijn. Dit lijkt me er echter eentje die vrij eenvoudig te faken is. Door via proxies een download mechanisme te bouwen zou je dit eenvoudig en enorm kunnen beïnvloeden. Maar het zal wel net als met eigenlijk alles in de SEO wereld een gewogen mix zijn.
En ik ben benieuwd, zijn jullie bezig met promotie van een app?
We zijn inderdaad onze mobiele strategie aan het herzien. We hebben al wat langer een app voor iOS en ook voor Android. Daarnaast hebben we een mobiele site, maar alle kunnen en moeten verder geoptimaliseerd worden.
Ik deel de mening van Martijn. Dit kan een erg interessante studie zijn, maar het zou helpen om de data achter de studie te kunnen inkijken.
Enkele vragen die ik heb waardoor het nu niet echt waarde voor mij heeft: Welke sites zijn geselecteerd? Hoe heb je beoordeeld dat site door Panda en of Penguin beinvloed zijn en niet door andere factoren. En hoe ben je bijvoorbeeld tot de conclusies gekomen dat sites die geraakt zijn 71% dezelfde trefwoorden hebben. Het zou interessanter zijn om bijvoorbeeld een grafiek te zien met daarop percentage gelijke trefwoorden vs impact op traffic.
Ik neem aan dat het gaat om de zoekfunctie in de Apple store? E.g. iemand zoekt “schaken” en je wilt dat jouw schaak app bovenaan staat?
Zelf geen ervaring mee maar ik vermoed dat het vooral te maken heeft met de naam van de app, omschrijving vd app en hoeveelheid positieve recensies.
Allemaal speculatie natuurlijk, maar zo zou ik het doen.
Daar gaat het inderdaad om. De zoekfuncties in the App Stores. In de slideshow wordt gesproken over de titel en de trefwoorden. De recensies lijken me inderdaad belangrijk. Misschien niet eens vanwege de invloed op de ranking, maar meer op de manier hoe mensen apps (of producten) selecteren. Het zit in het menselijk karakter om naar de recensies en dan vooral de echt negatieve te kijken, om te beoordelen of ze wel of niet iets kopen of gebruiken.
De volgende Q&A voegt wat toe bij deze discussie.
http://searchengineland.com/matt-cutts-qa-how-to-use-google-link-disavow-tool-137664Vooral deze vraag en antwoord passen bij het probleem van negatieve concurrent link vermeldingen. Vooral dit deel is duidelijk “If a webmaster wants to shoot themselves in the foot and disavow high-quality links, thats sort of like an IQ test”. Hieronder staat de vraag en antwoord waar ik dat stukje uitgehaald heb.
Question Danny Sullivan (searchengineland.com):
What prevents, and I cant believe Im saying this, but seemingly inevitable concerns about negative negative SEO? In other words, someone decides to disavow links from good sites as perhaps an attempt to send signals to Google these are bad? More to the point, are you mining this data to better understand what are bad sites?
Answer Matt Cutts (Google):
Right now, were using this data in the normal straightforward way, e.g. for reconsideration requests. We havent decided whether well look at this data more broadly. Even if we did, we have plenty of other ways of determining bad sites, and we have plenty of other ways of assessing that sites are actually good.
We may do spot checks, but were not planning anything more broadly with this data right now. If a webmaster wants to shoot themselves in the foot and disavow high-quality links, thats sort of like an IQ test and indicates that we wouldnt want to give that webmasters disavowed links much weight anyway. Its certainly not a scalable way to hurt another site, since youd have to build a good site, then build up good links, then disavow those good links. Blackhats are normally lazy and dont even get to the build a good site stage. 🙂Ik weet niet hoe het werkt, maar ik heb wel eens begrepen dat de PageRank van websites soms gefaked word om het domein makkelijker te verkopen.
Als ik Google op “fake pagerank” zijn er een aantal tools, die geven aan dat het wel echt is.
Edit: Op 5 oktober 2009 stond de volgende website erop: http://web.archive.org/web/20091005014011/http://www.thegateglasgow.com/
Dat er aangegeven wordt of een pagerank wel of niet gefaked is wordt gebaseerd op informatie die niet erg recent is. The Wayback Machine lijkt sinds 2011 geen nieuwe pagina’s gecrawled te hebben. En dat een domein gecrawled is of in een lijst staat wil niet zeggen dat de pagerank correct is.
Een uitleg die ik gevonden had, ik kon dit fenomeen eerlijk gezegd niet echt (de zichtbare pagerank is voor mij niet zo belangrijk), verteld dat je door je domein met een 301 redirect naar een domein met een hoge pagerank er voor zorgt dat jouw domein ook (waarschijnlijk tijdelijk) een hoge page rank krijgt. Al om een betere prijs te kunnen vragen. Dit lijkt me een “geslaagde test”.
Uit je scherm afdruk blijkt dat Google de sitemap structuur in ieder geval oppakt. Google toont immers alle items van je sitemap (1400). Wat je overigens niet hoeft te doen is alle sitemaps toevoegen. Je hebt ze immers al in je sitemap.xml staan. Je kunt dus die sitemap-films en sitemap-overig verwijderen van WMT. Je meldt alleen sitemap.xml aan en die andere 2 worden dan automatisch gevonden en komen in WMT een niveau dieper te liggen.
Het probleem ligt denk ik toch ergens anders en niet bij je sitemap. Je krijgt inderdaad slechts 28 pagina’s terug als je een site:bluraydatabase.nl doet. En 24 als je in de folder film kijkt. Daarnaast is je domein vrij jong (juni 2012 geregistreerd).
Ook heb je een erg platte hiërarchie. Je hebt één folder /films/ en al je films staan daar in. Het lijkt er ook op dat Google enkel naar de eerste /films/ pagina kijkt. Vandaar het lage aantal geindexeerde pagina’s. Pagina 2, 3, enz worden niet gevonden in Google.
Ik denk dat je het moet zoeken in meer unieke content en een duidelijkere structuur.
Daarnaast lijkt het me slim om je log files te bestuderen. Welke pagina’s worden door Googlebot bezocht en met welke frequentie? Daaruit kan je afleiden wat Google belangrijk vind.
Met een sitemap doe je suggesties aan zoekmachines. Het is geen hard feit dat als je een sitemap hebt dat je pagina’s ook geindexeerd worden.
Daarom kan dit probleem verschillende oorzaken hebben. Bijvoorbeeld doordat te veel pagina’s op elkaar lijken. Of doordat Google niet geïnteresseerd is in dat deel van de site.
Ze hebben bijvoorbeeld algoritmes om te beoordelen waar de verschillende secties van een site overgaan en als ze niet kunnen beoordelen wat het onderwerp is van elke pagina laten ze het links liggen.
Daarnaast beoordelen ze hoe verschillend die content is ten opzichte van bestaande content. Als het bijvoorbeeld “duplicate content” is zal Google het ook links laten liggen.
Wat verder belangrijk is, is hoeveel fouten er door Google gevonden worden. Ik heb hier niet naar gekeken, maar als een sitemap of de links in de sitemap veel foutmeldingen genereren stopt Google met op de sitemap te vertrouwen op je sitemap (en laat deze weer links liggen).
Verder zag ik dat je een heel erg uitgeklede variant gebruikt van een sitemap. Het officiele sitemaps protocol vind je hier: http://www.sitemaps.org/protocol.html
Ik denk overigens dat het probleem ligt bij de duplicate content. Ik heb een zoekopdracht gedaan op een paragraaf van één van je film pagina’s. Die tekst komt 2100 keer naar boven in Google.
Een van de grootste bioscoopsuccessen aller tijden brengt de ultieme confrontatie, wanneer krachtige buitenaardse wezens een invasie starten tegen de mensheid. Het spektakel begint als reusachtige ruimteschepen naderen. Verbazing slaat om in terreur als de schepen enorme vernietigende vuurstralen op steden over de gehele wereld richten. De hoop op overleven ligt nu in de handen van standvastige doordouwers, die samenspannen voor een laatste aanval tegen de indringers, alvorens de hele mensheid vernietigd wordt. Link naar zoekopdracht
Je focust niet op je aanbiedingen of advertenties, maar je focust op de gemene deler tussen deze advertenties. De advertenties houd je buiten de zoekmachine index.
Als je dus bijvoorbeeld een rubriek hebt met unieke eenmalig hand gemaakte asbakken (om maar een niche te pakken) dan kan je een algemene pagina maken die over hand gemaakte asbakken gaat en daar je aanbod op tonen. Deze pagina optimaliseer je voor de meeste belangrijke trefwoorden. Belangrijk onderdeel van deze optimalisatie is overigens de externe link-building.
-
AuteurBerichten