Aangemaakte reacties
-
AuteurBerichten
-
Sinds kort ben ik bezig met de SEO voor een webshop. Voor mij is dit gebied vrij nieuw. Nu ben ik longtail keywords aan het zoeken en gebruik hiervoor het hulpprogramma voor zoekwoorden van Google Adwords.
Duidelijk en een goede werkwijze.
Als ik hier de longtail zoekwoorden invoer die ik wil gebruiken in mijn META keywords tag
De keyword meta tag wordt niet door zoekmachines gebruikt en is niet belangrijk.
Even SEOGuru’s boek pluggen. Belangrijke tip: Lees een goed boek over SEO. Ik kan zonder meer het boek van het Nederlandstalige boek van SEOGuru aanbevelen. Het is één van de betere die ik gezien heb. https://www.seoguru.nl/seo-boek/
dan blijken deze vaak nog te populair te zijn (in die zin dat de concurrentie hoog is)
Dit stuk krijg ik niet helder. Waarmee beoordeel je dat een woord “te populair” is? Je maakt hier een stap in je gedachten die ik niet helemaal mee kan maken.
en lijkt het mij dus moeilijk al dan niet onmogelijk hier zonder gebruik van een Adwords Campagne hoge ogen mee te gooien.
De adwords tool is voor de advertenties in Google. Als je daar mee bezig bent is het geen SEO, maar SEA. Ik ga ervanuit dat je het hebt over een vermelding voor je site krijgen in de organische resultaten. Alle informatie die je in deze tool vind is dus ook voor deze betaalde advertenties. De keyword tool wordt echter voor trefwoord onderzoek gebruik omdat het een indicatie geeft van de werkelijk belangrijke trefwoorden. Niet meer en niet minder.
Jij geeft aan dat die concurrentie niet zoveel met SEO te maken heeft. Daar bedoel je dan denk ik mee dat dit de graadmeter is voor hoeveel er op geboden wordt en dus niet hoeveel deze woorden gebruikt worden in de organische resultaten? Oftewel, ik hier niet al teveel op moet letten als ik zoekwoorden kies voor mijn site.
Exact, kies woorden die een antwoord geven op de vragen die jou klanten beantwoord willen hebben. Ik zeg dit algemeen, maar dit geld ook voor een shop. ALs iemand iets koopt is er een bepaalde noodzaak. Daar zouden shops voornamelijk hun SEO omheen moeten richten.
Dit klinkt misschien heel gek …maar als ik woorden invoer in het hulpprogramma van Google Adwords moeten deze dan elk apart op een nieuwe regel worden geplaatst en zet ik ze dan later achter elkaar in de META keywords tag als groepjes afzonderd met een komma. Als ik namelijk 3 woorden achter elkaar plaats in het hulpprogramma en ik dan ga zoeken komt Google met geen info (geen zoekvolume, concurrentie and so on) terwijl als ik in Google zoek er wel 13.000.000 resultaten verschijnen met relevante websites bovenaan! Ga ik dezelfde woorden onder elkaar opzoeken verschijnen ze ieder met nuttige info en een hoge, normale en lage concurrentie.
Ja, de trefwoorden in de keyword meta tag staan gescheiden met komma’s, maar opnieuw deze tag wordt niet gebruikt en is onbelangrijk voor SEO.
Gebruik “exact” in plaats van “breed” in de Google keyword tool. Verder reageer ik hier niet op. Google heeft een geweldige handleiding 😉 en lees een goed SEO boek 🙂
Als het om een webshop gaat is het dus lastig om onbetaald met longtail te concurreren? Onbetaald longtail toepassen is dan meer een tool voor site’s die op minder relevante zoektermen gevonden worden en bv naar jouw site linken …of voor niet commercieel gebruik?
Volgens mij begrijp ik je niet helemaal of jij mij niet. Misschien is het zinvol om wat voorbeelden te geven.
Meer informatie van mijn kant over wat ik bedoel:
Concurreren op organische zoekresultaten is in principe voor elke site gelijk. Je moet voldoen aan een aantal regels waarmee Google bepaald welke pagina het meest relevant is en als je dat het beste doet sta je bovenaan.
Het heeft ook niet zo veel te maken met de concurrentie waarde in de adwords keyword tool als je dat denkt. Dat is een waarde die geld voor adwords. Als je die waarde voor SEO gebruikt is het niet meer dan een indicatie over de moeilijkheid. Een hoger waarde betekend dat meer bedrijven op een bepaald trefwoord bieden (adwords). Je kunt aannemen dat ook meer bedrijven proberen te optimaliseren voor dat trefwoord.
Ik denk dat dit een interessant artikel is:
http://searchengineland.com/short-vs-long-tail-which-search-queries-perform-best-36762Het is een beetje afhankelijk wat het doel is van je site, maar voor o.a. shops zoekt iemand niet op één trefwoord, maar zoekt meestal meerdere keren.
Iemand die bijvoorbeeld online een tv wil kopen zoekt waarschijnlijk eerst op “tv kopen”. Daarna zal er een keer op “samsung tv kopen” gezocht worden. Hij ziet een interessante aanbieding bij een bepaalde shop. En daarom zoekt hij uiteindelijk alleen op de winkel naam of op een type samen met winkelnaam. Die laatste zoekopdracht is het trefwoord wat de werkelijk conversie veroorzaakt. Maar die eerdere zoekopdrachten bouwen vertrouwen op en zijn dus ook belangrijk.
Je ziet dat in het koop proces iemand van relatieve short-tail naar relatieve long-tail gaat.
Meer hierover:
http://www.seomoz.org/blog/winning-the-seo-battle-at-every-step-of-the-purchase-pathveel mensen met (veel) verstand aanwezig zijn op dit forum
Dat wil niet zeggen dat er altijd wat zinnigs gezegd wordt 😀
Voor de linkjes waar je op doelt moet je even zoeken naar “Google places” (de eerste) en Sitelinks (de tweede regel). Ik weet eigenlijk niet of de SEOguru hier wel eens over geblogt heeft, maar er is over beide onderwerpen meer gesproken op dit forum.
Als ik op zoek ben naar longtail zoekwoorden merk ik vaak dat 99% nog een hoge concurrentie hebben. Kan dit kloppen of zijn de zoekwoorden dan niet specifiek genoeg? Echter, als ik ze nog specifieker maak dan geeft het hulpprogramma van Google geen zoekvolume!
Een beetje afhankelijk van hoe lang ‘long-tail’ is. Ik noem het zelf liever middle-tail. Deze zoekwoorden hebben in veel gevallen een hoge concurrentie omdat het vaak de woorden zijn die gebruikt worden vlak voor een conversie en dus interessanter zijn als je geld verdient met je site.
maar toch hoor ik van soms dat SEO bedrijven een VPN of proxy service gebruiken om geen ‘footprints’ achter te laten…
Ik kan begrijpen dat dit een probleem gaat zijn als een bedrijf honderden zo niet duizenden accounts beheerd, maar bij enkele lijkt me dit geen probleem. Het gaat het bij Google volgens mij meestal om de afwijkende getallen. Zolang je niet extreem afwijkt van het normale dan is er niets aan de hand. En een aantal GA accounts is normaal.
het is misschien een beetje paranoia,…
😀 Een beetje?? 😀
Stel… (ik kan het mij bijna niet voorstellen) ik doe iets bij 1 bedrijf dat als blackhat wordt beoordeeld en Google vindt mijn IP niet meer tof… dan zouden ze alle accounts bij langs kunnen gaan waar ik eens ben ingelogd.
Stel dat Google hier gebruik van zou maken. Hoe denk je dat ze dan onderscheid maken tussen de sites die jij beheert en bezoekt en de andere sites die jij bezoekt en die Google Analytics gebruiken, dat zijn er meer dan dat jij beheerd :). Verwacht je dat die sites dan ook een probleem gaan hebben? Zoveel invloed heb jij en geen enkele andere individu op internet.
Als je werkelijk white-hat gebruikt dan hoef je je nergens druk over te maken. Gebruik je black-hat op één site dan is het wel belangrijk dat je nadenkt over op welke server deze site draait. Dezelfde sites op één server kunnen namelijk wel beïnvloed worden door de andere sites op deze server. Maar ook hier zou ik me niet te druk over maken. Dit gaat pas spelen als je rond je site en/of server ongeveer alle alarmbellen bij Google laat rinkelen.
Volgens mij werkt het niet voor mijn site: LINK
Dan heb je vast nog niet veel aan link-building gedaan. Ik zou dan terug vallen op Google webmaster tools.
Hoe werkt die MajesticSEO site?
Je vult een domeinnaam of een url in en klikt op explore. Dan krijg je een overzicht. De gratis versie geeft je aantallen en een kort overzicht van links naar je site. Er is echter wel één kantekening. De site moet door hun gecrawld zijn. Ze hebben veel domeinen en URLs in hun index, maar zeker niet alles. En ze crawlen in een veel lagere frequency dan bijvoorbeeld Google.
Hetzelfde geld ook voor Opensiteexplorer. Deze tools zijn voornamelijk op de VS gericht.
Ik geef de URL in en dan krijg ik: ‘Sorry there are no results for the query.”
Dit zijn de resultaten voor bijvoorbeeld Google.nl
Welke informatie probeer je precies te krijgen en met welk doel? Is het voor je eigen site of voor een concurentie onderzoek?
Ik moet het aantal backlinks weten van een website.
Hoe bereken ik die aub en waar? :confused:In Google Webmaster Tools vind je een optie om backlinks te zien.
in GWMT >> Verkeer >> Links naar uw siteAndere mogelijkheden zijn Opensiteexplorer.com of MajestSEO.com. Beide beperkt gratis te gebruiken.
Als laatste, maar die raad ik niet aan omdat je maar een kleine selectie ziet van de werkelijke links, is de zoekopdracht in Google “link:jedomeinnaam.nl”
In deze gedachte kan ik deels meegaan, maar als je bijvoorbeeld een goede overzichtswebsite hebt waarin je winkels en prijzen vergelijkt dan vind ik dit wel degelijk een waardevolle site. Stel dat je bijvoorbeeld 8 aanbieders van iPhones op rij zet en twee daarvan bieden de iPhone voor 100 euro minder aan dan vind ik dit als zoeker zeker interessant om op zo’n pagina te landen omdat ik dan de goedkoopste deal scoor.
De sleutel hier is deze “een waardevolle site”. Als je een site hebt die werkelijk iets toevoegt voor de doelgroep binnen het bestaande spectrum van sites dan is er volgens mij geen enkel probleem om goed in Google te scoren. En het maakt dan niet uit of je een vergelijkingssite hebt met een affiliate verdien-model.
Uiteraard rekening houdend met de Google richtlijnen en dus voor volledige white-hat SEO gaat.
mmm… duidelijk. Dit maakt het als maar moeilijker lijkt wel 🙂
Het wordt niet moeilijker voor de sites die voor een bepaalde doelgroep interessante en unieke content hebben. Het wordt wel moeilijker voor de sites die weinig toegevoegde waarde hebben voor de gebruikers. Sites die bijvoorbeeld met content van andere proberen geld te verdienen. Google wil deze middenpartij uitschakelen.
Het onderwerp waar ik over wil gaan schrijven komt namelijk best vaak in mijn tekst voor maar is wel heel natuurlijk. Zonder deze woorden zouden de pagina’s namelijk niet te begrijpen zijn 🙂
Ik neem aan dat we nog wel enige vorm van keyword density nodig hebben om op die zoektermen te scoren in de zoekresultaten?
Ik zou me niet druk maken over begrippen als “keyword density”. Wat belangrijker is, is dat je op een voor Google crawlbare manier duidelijk maakt wat de relevantie is tussen de content en het onderwerp (keyword) op een pagina. Dit doe je door content te hebben die niet rond één trefwoord is gebouwd, maar door ook synoniemen en relevante andere woorden toe te voegen.
Wat versta je precies onder over-optimalisatie signalen. Waar moet ik dan rekening mee houden wat ik dan vooral niet moet doen?
Google wordt steeds beter in het begrijpen van SEO trucs. SEO trucs zijn bijvoorbeeld je exacte keyword meerdere keren terug te laten komen in je eerste paragraaf. Als je normaal een tekst schrijft is dat niet normaal. Google heeft nu algoritmes die dit kunnen herkennen.
Maar ik zou beginnen met dit te lezen:
https://www.seoguru.nl/seo-forum/actueel/1106-google-overoptimalisatie-penalty-van-start.htmlEn een vraag die nu direct bij mij omhoog komt is:”kan ik dan niet beter een exacte domeinnaam registreren met bijv 123 er voor, dus 123autokopen.nl” omdat de zoekterm hier wel exact in voor komt. Of is het omgekeerde zoekwoord kopenauto.nl dan aan te bevelen?
Hier kan ik niet echt een goed advies op geven. Als het enige doel van de domein selectie SEO is dan zou ik daar nog eens over nadenken. Als het ook werkelijk is omdat het gewoon gemakkelijk is voor gebruikers dan zou ik er zonder twijfel voor gaan.
Eerste vraag: gebruik [exact] om het werkelijk zoek volume te begrijpen. Dan zal je zien dat er een groot verschil zit tussen beide.
[auto kopen] 33.100 zoekopdrachten
[kopen auto] 58Verder is het ook interessant om even verder te onderzoeken naar “auto kopen”. Er zijn ruim 90.000 zoekopdrachten die deze op één of andere manier bevatten. Ik vermoed (ken de auto markt niet echt) dat het voornamelijk met een plaatsnaam is.
je tweede vraag: Een exacte trefwoord in de domein is volgens mij nog steeds wat beter, maar in het post Panda en nu Pinguïn tijdperk is het verstandig om niet te veel over-optimalisatie signalen te hebben. Als overigens dit exacte keyword domein nog vrij zou zijn, zou ik er wel voor gaan. Maar ik zou meer aandacht besteden aan de inhoud en structuur van de site. En daar een strategie omheen bouwen die past bij de doelgroep waar je je op richt. Dat gaat voor de lange termijn in mijn beleving meer opleveren.
Niet on-topic, maar volgens mij wel relevant voor deze discussie. En misschien al bij jullie bekend, maar dit is een handige WordPress plugin om redirects voor 404 te managen:
WordPress › Redirection WordPress Plugins
Deze plugin registreert alle 404’s en bied je de mogelijkheid om redirects te maken. Je kunt dit doen met regular expressions of met a naar b redirects. Gewoon vanuit je admin omgeving. Geen (extra) gedoe met .htaccess files
Deze is ook errug leuk: soovle
Wat ik handig vind aan ubersuggest is dat het heel eenvoudig is om de gevonden trefwoorden te exporteren en in andere research tools te gebruiken. Het zorgt heel snel voor een eerste relatief grote groep trefwoorden. Ik heb voor onderzoek waar ik ubersuggest heb gebruikt lijsten van 300+ trefwoorden gekregen.
-
AuteurBerichten
Gerelateerde berichten:
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…