SEO training-, kennis- en adviescentrum › SEO forum › SEO vragen en discussies › Google webmaster -> Crawlfouten -> Niet bereikbaar -> Geen Reactie
- Dit onderwerp is leeg.
-
AuteurBerichten
-
-
15 september 2009 om 8:32 am #21379
Ik zit al maanden met een probleem en weet het echt niet meer.
Het gaat om de website Woonportaal Allesvoorjehuis.nl, De website omtrent het wonen!
In Google webmaster krijg ik dagelijks pagina’s met de melding GEEN REACTIE. inmiddels hebben wij echt van alles gedaan. zoals het splitzen van database tabellen die te groot waren geworden optimalisatie van ons producten update systeem.
Ik dacht eerst dat het aan de slow query’s lag die te lang waren soms wel 10 a 15 seconden dit is opgelost en hebben we terug gebracht naar een enkeling van 4 seconden maar dit is zelfde en voornamelijk komt dit voor in ons update systeem en kunnen we niet heel veel winst meer uit halen. Toch heb ik het idee dat google mij afrekent op de GEEN REACTIEIk heb een paar vragen en hoop dat iemand hier een antwoord op heeft:
1. Hoe lang mag de pagina load tijd maximaal zijn voor Googlebot
2. Rekent google je af op de GEEN REACTIE melding
3. Hoe kan je goed de website testen waar eventueel het probleem van de geen reactie kan zitten. (Misschien via een programma wat de googlebot na doet.
Ik weet in ieder geval echt niet meer wat we kunnen doen helaas.
-
15 september 2009 om 8:54 am #24973
Ik weet ook niet wat dat betekent.
Als er snelheidsproblemen zijn kan je dat het beste testen met de pagespeed addon voor Firefox van Google: https://www.seoguru.nl/seo-forum/seo-tools/166-pagespeed-addon.html. Plaats je javascript extern, dat scheelt ook al meteen behoorlijk wat laadtijd.Maar ik zie ook dat de website er in de kern helemaal niet goed uit ziet. Er zijn zeer diepe directory-structuren, maar liefst 9 niveaus diep! Google stelt dat iedere directory een eigen index-pagina moet hebben. Bij jou bevatten die 9 directories echter geen van allen een index-pagina. Waarom zulke diepe directorystructuren? Hou het simpel!
En ook zelfs het meest voor de hand liggende SEO element, de H1, mis ik al op je homepagina.
Ik raad je aan de Google startersgids even goed door te lezen! https://www.seoguru.nl/seo-forum/seo-publicaties/41-googles-search-engine-optimization-starters-gids.html
Succes!
Alain -
15 september 2009 om 8:58 am #24974
Ik weet dat we dat missen maar dat is niet het probleem wat ik nu geef.
Het gaat mij om dien GEEN REACTIE wij hebben dit nooit gehad maar sinds we die hebben is het een ramp 🙁 met de bezoekers via google. -
15 september 2009 om 9:25 am #24975
De YSlow addon van FireFox is ook erg makkelijk. Ik zag daarmee al dat je de laadtijd van die website kan verbeteren.
-
15 september 2009 om 2:29 pm #24976
1. Wat zegt jullie CMS bouwer ´t Reclamehuys?
2. Hebben jullie Google zelf al gevraagd?Heb je een XML sitemap toegevoegd aan de webmaster tools?
Kun je een schermafdruk van de Webmaster tools ergens uploaden en hier posten?
Om hoeveel pagina’s gaat dit? Er zijn zo’n 7.000 geinexeert in Google. Lijkt me een probleem met jullie CMS dat zeer complex qua structuur is zoals SEOguru al aangaf…
-
15 september 2009 om 5:20 pm #24978
1.
Wat zegt jullie CMS bouwer ´t Reclamehuys?
2. Hebben jullie Google zelf al gevraagd?
Heb je een XML sitemap toegevoegd aan de webmaster tools?
Kun je een schermafdruk van de Webmaster tools ergens uploaden en hier posten?
Om hoeveel pagina’s gaat dit? Er zijn zo’n 7.000 geinexeert in Google. Lijkt me een probleem met jullie CMS dat zeer complex qua structuur is zoals SEOguru al aangaf…
1. Die hebben geen idee waar het vandaan komt helaas anders had ik het hier niet hoeven vragen.
2. Hoe kan ik hun bereiken want dat is me nog nooit gelukt.
3. Hebben we gehad en had de zelfde problemen
4.
5. Kijk dat is nu het probleem dit was een paar maanden geleden nog 90.000 en daalt dagelijks. bezoekers zijn nog maar 25% van wat het was.
-
15 september 2009 om 5:21 pm #24979
Kan geen verbinding maken komt omdat we de MYSQL hebben gerestart
-
16 september 2009 om 8:02 am #24981
Interessant probleem. Als gebruiker merk ik niets van een slechte performance. De laadtijd is prima.
Dacht nog aan de mogelijkheid van een fout in de robots.txt, waardoor de Googlebot mogelijk geweigerd wordt, maar daar kon ik ook niets vinden. Er staan ook AdWords advertenties op je site, dus de AdWords bot van Google weet je site wel te vinden.
Enige dat me opviel is dat je site gemarkeerd is als ‘spam’ site (allesvoorjehuis.nl | WOT Security Scorecard | WOT Web of Trust). De melding is van het begin van het jaar. Is er misschien ingebroken op je site en heeft iemand iets in de instellingen gewijzigd waardoor Google niet meer bij je site kan?
Google heeft een lijst met tips op het gebied van security (Google Online Security Blog). Misschien dat dat nog iets oplevert. Kan verder nog even niets bedenken.
-
16 september 2009 om 8:13 am #24982
Google spidert wel elke dag 10.000 a 20.000 pagina’s dus dat is het ook niet.
-
16 september 2009 om 8:14 am #24983
Enige dat me opviel is dat je site gemarkeerd is als ‘spam’ site (allesvoorjehuis.nl | WOT Security Scorecard | WOT Web of Trust). De melding is van het begin van het jaar. Is er misschien ingebroken op je site en heeft iemand iets in de instellingen gewijzigd waardoor Google niet meer bij je site kan?
.
Hoe kom je hier dan vanaf.
Vreemd verhaal dit.Oms nieuwe IP staat er niet in trouwens.
-
16 september 2009 om 8:18 am #24984
“www.allesvoorjehuis.nl” – Google zoeken
helemaal onderaan staat jullie URL geindexeerd met een meta titel die je niet graag wilt. Ik ben zelf de site niet op gegaan, maar het zou me niets verbazen wanneer door deze link je trustrank omlaag is gegaan en je gezien wordt als spam.
-
16 september 2009 om 8:26 am #24985
Zie het staan ja vreemd.
-
16 september 2009 om 6:57 pm #24990
Zijn dit links die ook in werkelijkheid vlak achter elkaar komen ?
Ik kan me namelijk voorstellen dat als een crawler zoveel aanvragen achterelkaar, wellicht tegelijkertijd doet dat er sommige pagina’s tussen zitten die geen response geven.
Het zijn er ook maar 30, op zoveel pagina’s die je hebt.
-
16 september 2009 om 8:10 pm #24991
Heb nog eens even verder gezocht.
Ik kom regelmatig tegen dat website zelf eruit gaan op het moment dat google de website aan het crawlen is. Soms gebruikt google hier 15 api’s tegelijk voor.
Zeker met zo’n grote website geeft dat een enorme belasting op de Database Server.Om dit te kunnen opvangen moet je je database connectie heel netjes programmeren, in 1 php file nooit meer dan 1 connectie openen en alle connecties direct weer sluiten als je ze niet nodig hebt.
Laat je programmeurs zoveel mogelijk optimalisatie in de belasting op de database doorvoeren. En kijk hoe de database server is geconfigureerd wat betreft aantal threads etc.
-
17 september 2009 om 7:10 am #21380
Wij sluiten elke sessie ook meteen weer af in elke pagina die we hebben.
We waren er al bekent mee dat google heel veel opvragen te gelijk doet.
-
-
AuteurBerichten
Gerelateerde berichten:
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…
- Het gaat niet om kwaliteit, maar kwantiteit 12 februari 2023 10 Links in grote blogs op de meest hoogwaardige sites met een DA van 50+ vs 10 links op schimmige copycat sites van startpagina =…
Je moet ingelogd zijn om een antwoord op dit onderwerp te kunnen geven.