Aangemaakte reacties
-
AuteurBerichten
-
Je moet natuurlijk Google ‘geloven’, want het gaat om de informatie die zij tonen en niet de informatie die via derden wordt getoond. Bij Google zit je bij de bron.
Google toont waarschijnlijk veel minder links omdat ze niet alle links vanuit fruitteeltonline.nl interessant vinden. Het merendeel wordt geskipt, waardoor je bij de GSC veel minder links overhoudt.
Ha Ronald, ja, ik herinner mij inderdaad dat je hier eerder al mee worstelde. Vervelend dat het nog steeds een probleem is. Punt is dat Google bij de reviews bij voorkeur zowel positieve als negatieve reviews wil tonen. Als er maar één negatieve review is, krijg je die niet meer weg. Je zou kunnen proberen om nóg een negatieve review toe te (laten) voegen, die iets minder negatief -wat vriendelijker- is. Misschien pakt Google die dan, i.p.v. de huidige, op. Verder zou ik het niet weten.
Overigens zal de review niet heel snel opvallen. Op desktop moet je eerst naar beneden scrollen, en dan staat het rechts in kleine letters vermeld, tussen andere (positieve) reviews. Op mobiel moet je zelfs eerst het kennisvenster uitklappen (meer over…), wil je de negatieve review in beeld krijgen. Als je rechtstreeks op de tab ‘Reviews’ klikt, zie je die negatieve review er zelfs niet eens bijstaan.
Ik vraag mij dus af of deze negatieve review werkelijk voor veel mensen als een rode vlag fungeert.
Groet!
Alain
Dag Inge,
Welkom op het forum!
URL’s met vraagtekens (?) en ampersands (&) in de URL zijn volstrekt gebruikelijk. Filtermechanismen in vele sites werken op die manier. Voor Google zijn het allemaal verschillende URL’s en zullen daarom ook individueel worden geïndexeerd. In jouw geval bevatten de URL’s ook nog eens interessante zoektermen (zoals ‘ingredienten’, ‘aardbei’, ‘seizoen’ en ‘zomer’. Allemaal prima dus. In principe kan je een URL als domein.nl/naamrecept/?ingredienten=aardbei&seizoen=zomer herschrijven naar bijvoorbeeld domein.nl/recepten/aardbei-zomer/, maar voor Google hoeft dat dus niet. Herschrijven van url’s kan overigens via het .htaccess-bestand dat op de server staat.
Google ziet de filterpagina’s dus als verschillende pagina’s. Als die verschillende pagina’s geen dubbele content bevatten, is er geen sprake van duplicate content. Als dat wel het geval is, dan is er wel sprake van duplicate content.
Nu wordt er vaak nogal paniekerig gedaan over duplicate content. Maar ook duplicate content is volstrekt normaal. SEO-technisch is het echter niet ideaal. Als je pagina’s hebt met duplicate content, is het daarom wel slim om pagina’s te koppelen via de rel=canonical. Dan bundel je de kracht van meerdere duplicate content pagina’s in één canonieke url.
Tja, een moeilijk te beantwoorden vraag, daar Google helaas niet precies aangeeft waar bijvoorbeeld die klikbare elementen te dicht bij elkaar staan. Als ik je twee voorbeelden op het oog bekijk, vallen mij wel de links met de ankertekst ‘Reprapper’ op, die meteen onder de individuele afbeeldingen te zien zijn. Bij de goede pagina zijn die afwezig. Die links staan erg dicht bij de knopjes daarboven, zoals het winkelmandje, de productvergelijking en de verlanglijst. Het lijkt mij dat Google i.h.b. de positionering van dát soort klikbare elementen serieus neemt omdat ze niet willen dat de bezoeker ongewild dergelijke acties triggert. Dat zie je ook bij het nieuwe onderdeel in de Google Search Console, met de naam site-vitaliteit, waar ze in dit verband ook CLS-problemen zijn gaan melden.
Nee, dat geloof ik niet. Ik vermoed een foutje van de kant van Moz. In de zoekresultaten toont Google inderdaad een beperkt aantal karakters (of eigenlijk pixels: je kan bijvoorbeeld veel meer i’s kwijt dan W’s), en ook voor de SEO verwatert de waarde van de individuele woorden als de title langer wordt. Het is dus geen interessante SEO-strategie om titles langer te maken. Het is natuurlijk wel slim om de maximale lengte zo goed mogelijk te benutten met relevante zoektermen.
De pagina die je noemt is wel degelijk geïndexeerd.
Of zoek maar eens op een stuk tekst uit de pagina. Dan zie je de pagina’s gewoon netjes verschijnen.
De indexering is niet het probleem. Het probleem is blijkbaar dat de site slecht gevonden wordt.
Allereerst is het daarbij natuurlijk de vraag op welke zoektermen de site slecht wordt gevonden. De site komt mij over als een visitekaartje-achtige website. Meestal worden dergelijke sites alleen gevonden op de naam van het bedrijf. Dat is bij jullie netjes het geval.
Maar wat schetst mijn verbazing: Google blijkt maar liefst 4.220 pagina’s te hebben geïndexeerd van de site. Het is dus geen visitekaartje-achtige website. Maar als ik die pagina’s (uit de 4220-lijst) dieper onderzoek, blijken veel ervan niet (meer?) te bestaan. Zie bijvoorbeeld deze.
Het lijkt mij allereerst zinnig dit uit te zoeken. Want ik zie bijvoorbeeld ook allerlei chinees-talige zoekresultaten. Is de site gehackt (geweest)? Misschien bevat de WordPress mysql-database nog allerlei rommel.
Meld de site verder aan bij de Google Search Console. Daar zal je veel van gaan leren. En ga je vervolgens afvragen wat de zoektermen zijn waar je goed op wilt scoren. Ga je tot slot verdiepen in de vraag hoe je de pagina’s vervolgens op die zoektermen kan optimaliseren. Zo zie ik dat de zo belangrijke meta-title van jullie homepage ‘Home – Aspire-ABA Center Europe’ is. Geen enkele interessante zoekterm op de belangrijkste plek in jullie site, dus.
Succes!
Dat zijn regels in het .htaccess-bestand die op basis van een premisse een andere uitkomst hebben. Zo kan de ene regel zeggen dat er bij URL A niets moet gebeuren, terwijl de andere regel zegt dat er bij URL A wél iets moet gebeuren.
Als je in Google zoekt op ‘htaccess checker’ dan krijg je vele zoekresultaten. Je zou die eens kunnen proberen.
Volgens mij mogen we hieruit de conclusie trekken dat Google selectiever is in de selectie van backlinks dan ahrefs dat is. Bij ahrefs heb je overigens ook de optie om gelijksoortige links samen te nemen in één link. Misschien komen de getallen dan dichter bij elkaar in de buurt?
Ha Pam.
Landingspagina’s zijn pagina’s die voor SEO geoptimaliseerd zijn en hun naam danken aan het idee dat de zoeker vanuit Google op die pagina’s moet landen.
Al heel lang is het zo dat alleen als pagina’s prominent gelinkt worden vanuit de site, ze pagerank en daarmee scorend vermogen krijgen. Dus als een pagina wordt gerealiseerd die alleen als doel heeft om te scoren in Google, maar nauwelijks gelinkt wordt, dan is de kans dat deze inderdaad gaat scoren erg klein. Als er helemaal geen link heen ligt, dan kan Googlebot de pagina zelfs niet eens vinden waardoor indexatie dan zelfs uitgesloten is.
Ik realiseer om deze redenen dus eigenlijk nooit specifieke landingspagina’s. De beste pagina’s zijn onderdeel van de hoofdstructuur van de site en krijgen zodoende hun scorend vermogen. Je kan wel via blog-artikelen of kennisbanken, etc. focussen op specifieke zoektermen, omdat dergelijke secties binnen de site onderdeel zijn van de hoofdstructuur (d.w.z. er intern goed naar gelinkt wordt).
Succes!
- Deze reactie is gewijzigd 4 jaren, 8 maanden geleden door Alain Sadon.
Nee, zou gewoon goed moeten werken. Ik vermoed dat er fouten staan in de .htaccess. Bijvoorbeeld conflicterende regels.
Verschillende jaren geleden kon dit een interessante SEO-strategie zijn. Coolblue is er groot mee geworden. Je moest het dan ook wel slim opzetten. Zo moesten de sites op verschillende C-Blocks staan, moest de whois-informatie van de sites verschillen, etc., om Google om de tuin te leiden. Maar tegenwoordig gaan we er vanuit dat Google slim genoeg is om de samenhang tussen de sites te ontdekken. Daarom adviseer ik een dergelijke strategie eigenlijk nooit meer. Bovendien degradeert Google sites met ’thin content’.
In mijn optiek is het daarom beter om één zeer goede site op te zetten, met secties die geoptimaliseerd zijn op de door jou genoemde termen.
Dit is een bekend fenomeen: bij heel veel sites is dat het geval (ook onderhavige). Dat hierdoor veel links nofollow zijn is daarom ook geen probleem.
Wat de dofollow van de concurrenten betreft: mogelijk hebben zij contact opgenomen en de eigenaar een klein bedrag betaald? Dit is natuurlijk wel de omgekeerde wereld daar betaalde links juist de rel=nofollow zouden moeten krijgen, maar zo gaat dat vaak wel.
Dag Liselore,
Dat klopt, en ook heb ik daar melding gemaakt via deze tweet.
De aan-/afwezigheid van de rel=nofollow bij uitgaande links varieert nogal bij de twee platformen (LinkedIn en Twitter). Op dit moment van kijken zijn ze afwezig (dus dofollow). De laatste keer dat ik keek (een week geleden?) waren ze aanwezig (dus nofollow).
Maar er speelt nog wat anders.
Sinds de tweet is er een nieuwe ontwikkeling door Google ingezet, namelijk dat de nofollow vanaf april a.s. als hint beschouwd wordt. Google creëert daarmee voor zichzelf de mogelijkheid om de nofollow te negeren. Hiermee worden de links vanaf social media dus sowieso potentieel weer interessant voor SEO, ongeacht de aan- of afwezigheid van de rel=nofollow.
Dat Google deze move maakt, is begrijpelijk: Google kan er niet meer omheen de social media platformen te betrekken in de berekening van PageRank.
🙂 Succes!
1. Hoe meer muisklikken een pagina vanaf de homepage ligt, hoe minder scoringskracht die (normaal gesproken) krijgt. Dat wordt dus niet afgeleid van de (diepte van de) url, maar van het aantal klikken. Ook de prominentie van de links op de pagina (in het pad van homepage naar de betreffende pagina) speelt daarbij een rol. Hoe prominenter de link, hoe meer kracht die doorgeeft. De eerst link in de main content is normaal gesproken de meest krachtige.
Omdat de URL-structuur normaal gesproken een weerspiegeling is van de klikstructuur, kan je dus zeggen dat het laatste woord in de URL de zwakste is, maar dat heeft meer met de diepe ligging van de pagina (dus grote afstand tot de homepage) te maken dan met de URL zelf.
2. Het alleen omgooien van een URL heeft dus geen zin, je zal dan ook de (klik)structuur moeten veranderen. Als je de site structureert via allereerst de keuze voor een toeristische vorm (agriturismo, etc.) en vervolgens een overnachtingsvorm (b&b, etc.) en vervolgens het type huisje, dan is jouw url-structuur juist. Maar alles onder ‘agriturismo’ wordt dan -naar mijn verwachting- vooral vindbaar op termen die dat woord bevatten. Bovendien heb je een mooie pagina voor ‘agriturismo’.
Als je daarentegen de overnachtingsvorm op het hoogste niveau brengt, dan krijg je een mooie pagina voor ‘b&b spanje’, maar niet meer voor ‘agriturismo’.
3. Waarom niet?
4. Ja, precies. Google kijkt natuurlijk ook naar andere zaken (meta-title, H1, ankerteksten, content, etc.), maar voor wat betreft alleen de URL klopt het wat je schrijft.
-
AuteurBerichten
Gerelateerde berichten:
- Google Analytics alternatieven 23 december 2024 Hi allemaal, ik ben op zoek naar alternatieven voor GA4 om organische omzet te meten. Hebben jullie aanbevelingen? Dankjewel!