Aangemaakte reacties
-
AuteurBerichten
-
5 januari 2011 om 10:30 am In reactie op: hoeveel eigen site’s naar eigen hoofdsite verwijzen #21710
Google is heel slim, veel slimmer dan veel van ons denken. Het trucje dat jij toepast is precies dat: een trucje. Google is groot geworden door trucs in kaart te brengen en niet mee te laten wegen in de beoordeling.
Waarom heb je deze truc gebruikt en richt je je niet op het gewoon optimaliseren van je site zoals Google het graag ziet? Zoek naar sterke links en kijk wat je kunt doen om sterke links automatisch aan te trekken, dat werkt op de lange termijn het beste.
Je kunt je wel richten op een ander hostingpakket maar ga er gerust van uit dat Google dat in de gaten krijgt of heeft en dan is die energie ook overbodig geweest.
Succes.
Hoi Alain,
Bekend probleem: mijn laatste tweet is zo oud dat ik al lang niet meer weet wat ik heb ge-tweet!
Succes in elk geval.
Groet,
BasHey Alain,
Goed overzicht! Bedankt, heb je pagina en het document zojuist met veel interesse doorgenomen. Zodanig geconcentreerd zelfs dat ik niet heb gemerkt dat mijn vriendin stampvoetend de tafel aan het afruimen was! ha, vakidioot he..
Groet,
BasDat is inderdaad vreemd. Mocht het inderdaad een positief effect hebben dan kan ik me voorstellen dat veel sites die onvolledig geindexeerd worden hier een oplossing aan kunnen hebben.
Inderdaad goed dat je het even meld. Ben benieuwd wie hier ervaring mee heeft of dat iemand het nu alsnog gaat proberen.
Ik gebruik zelf een iPhone en dan kun je de complete site prima zien. Een concurrent van ons maakt al meerdere jaren van elke gewone site ook een mobiele variant. Heel nobel maar volgens mij heeft dat nog nooit echt veel toegevoegde waarde gehad. Wij bouwen ze dan ook nooit om. Besef voor je begint goed wat de verschillen zijn in codering en interpretaties want daar ga je tegen leuke dingen aanlopen.
Succes,
BasIk heb de enquete ingevuld. Hopelijk kun je wat met onze reacties. Misschien leuk om wat interessante uitkomsten te delen op dit forum.
Succes.
BasHmm. Ik ging er altijd al van uit dat verschillende servers verschillende resulaten kunnen geven.
Volgens mij worden er continue berekeningen gemaakt en periodiek uitgedeeld over de servers die de resultaatpagina’s opstellen. Omdat dat er ongelofelijk veel moeten zijn kunnen die nooit tegelijk bijgewerkt worden, vandaar kleine verschillen als je een query meerdere keren uitvoert. Ik verwacht dan ook dat dat batchmatig gebeurt, mogelijk per domein of datacentrum. Vervolgens worden gegevens gesynchroniseerd tussen de verschillende domeinen/datacenters en worden daar ook weer berekeningen op los gelaten. Ik kan me voorstellen dat buitenlandse domeinen in Amerika minder prioriteit krijgen omdat die in die landen opgesteld worden vandaar de grote verschillen wanneer je zoekt bij Google.com.
Ik kan me voorstellen dat de servers in een aantal ‘ringen’ staan: de buitenste ring stelt de resultaatpagina’s op, de ring daar binnen doet het grootste feitelijke rekenwerk en de binnenste ring distribueert informatie over het netwerk (pagina’s, algoritmes, etc) tussen de datacentra. Op die manier zorg je ervoor dat alle informatie overal beschikbaar is maar beperk je de hoeveelheid informatie die Google dagelijks anders over de hele wereld zou moeten sturen met alle kosten vandien.
Overigens is bovenstaande informatie gebaseerd op mijn kennis van Google en niet ondersteund met feiten. Schiet me dus niet af als ik er naast blijk te zitten aub! Thanks
8 december 2010 om 1:33 pm In reactie op: Discussie over betekenis van zoekvolumes in Google’s Keyword Tool #25783Ik kan je niet verder helpen maar ben wel benieuwd naar de reactie. Persoonlijk vind ik het tof dat je je informatie zo gedetailleerd onder de loep neemt. Leuk ook om te zien dat iemand van Google zelf de definitie nu (mogelijk) moet herzien.
Succes
Hoi,
Ik ben een paar weken druk geweest en daardoor minder aanwezig op het forum vandaar dat ik je vraag nu pas zie.
Ik raad sowieso aan om niet permanent afhankelijk te zijn van de server in de winkel. Maak dan een koppeling die eens per 24 uur de laatste gegevens opvraagt en doorstuurt naar de server in het datacentrum. Dat werkt veel sneller en is minder foutgevoelig. Daarnaast omzeil je dan allerlei problemen zoals die je nu omschrijft met lastige routings, databases en protocollen. Om nog maar te zwijgen van de snelheid van je internet in de winkel en hard- en software problemen aan de server in de winkel en wat daar de gevolgen van kunnen zijn.
Voorbeeld:
Je maakt een cronjob op de server in het datacentrum. Die haalt ‘s-nachts de laatste informatie op uit de winkel. Dat mag even duren want daar is niemand op aan het wachten. Die gegevens worden verwerkt in de database van diezelfde server, dat is een eenvoudig en goed te controleren proces. Overdag worden de wijzigingen bijgehouden en ‘s-nachts terug gekoppeld naar de winkel bij het ophalen van de laatste informatie.Wanneer je informatie 100% moet kloppen kun je altijd nog met XML werken: per wijziging (in het datacentrum of in de winkel) stuur je een XML-bestand naar de andere server. De andere server ontvangt het verzoek, verwerkt deze en stuurt een antwoord terug zodat die server ook zeker weet dat de wijziging is uitgevoerd.
Met XML kun je compatibiliteitsproblemen worden voorkomen waar jij nu tegenaan loopt.
Succes,
BasHoi Luvène,
Op dit forum kun je alle vragen stellen maar het werkt voor jezelf sneller als je even goed zoekt. Als je denkt dat een vraag eerder al is gesteld, dan kun je beter de zoekfunctie eerst gebruiken. Voordeel voor ons is dat we dezelfde vragen niet telkens voorgelegd krijgen, voordeel voor jou is dat je direct je antwoorden hebt.
META-informatie kun je inderdaad beter op elke pagina invullen met informatie van die pagina.
Je andere vragen over robots.txt en de sitemaps zien we wel verschijnen!
Succes
Hey Bart,
Als westerling beginnen we bovenaan en links te lezen. Op elk tijdschrift zul je daar de naam van het blad aantreffen. Die staat daar omdat die het meest belangrijk is van de cover en zeker belangrijker dan de streepjescode, die rechts onderaan staat. Wij mensen geven de eerste informatie die we tegenkomen een hogere waarde dan informatie die pas later in zicht komt en mogelijk ook nog kleiner afgebeeld is.
Google is erin geslaagd veel van deze ‘algoritmen’ te vertalen naar code die automatisch websites kan interpreteren en waarderen zoals wij dat zouden doen. In dat kader kun je dus stellen dat hetgeen dat (links) bovenaan staat belangrijker is en dat je daar eigenlijk beter je content kunt plaatsen ipv je menu.
Google is al een tijdje slim genoeg om je site te herkennen en op te delen in bepaalde vaste onderdelen, zoals het menu. In tegenstelling tot een tijdschrift is een menu voor de meeste sites onmisbaar en zijn we gewend om het menu boven de content te zetten. Ik vermoed dan ook dat Google dat echt wel in de gaten heeft en je daar dus eigenlijk geen rekening mee hoeft te houden.
In jouw geval lijkt het een positief effect te hebben. Om er achter te komen of dit ook echt de oorzaak is zou je de structuur van de pagina’s moeten aanpassen maar dan heb je niet de zekerheid dat je ook echt terug komt op de huidige posities. Zoals je kunt lezen op dit forum zijn er meerdere geweest die na een wijziging niet meer terug kwamen op de vorige positie. Dat raad ik je dus ook niet aan.
Advies: houd in je achterhoofd dat dit een effect kan hebben op de vindbaarheid en houd er rekening mee bij site onderhoud en het maken van een nieuwe vormgeving.
Ik vind de macht van Google te groot. Tja eerlijk is eerlijk: ze hebben veel goede systemen gemaakt en gratis ter beschikking gegeven voor de hele wereld en dat is geweldig maar ik vind Google doorschieten.
Meer informatie en inzicht over de werking van de zoekmachine en vooral duidelijke definities zodat het voor het bedrijfsleven een meer betrouwbaar alternatief wordt zou ik zeker waarderen. De afgelopen jaren heb ik teveel bedrijven gezien wiens websites om onbekende reden niet meer vindbaar zijn. Soms met grote financiele gevolgen. Daarover mag best gecommuniceerd worden. Natuurlijk zijn er personen en organisaties die daar ook misbruik van zullen proberen te maken maar dat wil niet zeggen dat Google op dit gebied opener mag worden.
Ik heb 12 jaar geleden eens een tijdje proberen bij te houden wat interessante sites en wat niet. Al snel kwam ik er achter dat het ondoenlijk is vanwege de diversiteit van het internet. Sindsdien kijk ik per situatie wat dan de mogelijkheden zijn en wat het beste gaat passen. Op die manier voorkom je een enorme (administratieve) last en kun je je richten op de dingen waar je echt goed in bent.
Mee eens: Google let ook op bezoekersgedrag en als ze in de gaten hebben dat de site van je klant beter bezocht wordt (lees: minder bounces, langer op de site, meer conversies) dan zal dat effect hebben op de positie van de site.
Kun je geen include gebruiken of bijvoorbeeld AJAX of in elk geval een methode om content in de site van de klant te plakken zonder een iframe? Dat moet mogelijk zijn lijkt me.
-
AuteurBerichten