Zoekopdrachten en klikken kunnen de resultaten van Google directer beïnvloeden dan eerder werd vermoed. Lange tijd vermoedden mensen in de wereld van zoeken, technologie en marketing dat Google zoekopdrachten en doorklikgegevens gebruikt om de rangschikking van zoekresultaten te beïnvloeden.

Je hebt een fantastische site gebouwd vol uitstekende, linkwaardige inhoud. U bouwt actief relaties op in de sociale ruimte die kwaliteitsverkeer naar uw site sturen en uw autoriteit binnen uw branche vestigen. U heeft zich gericht op het creëren van een geweldige gebruikerservaring en het leveren van waarde aan de bezoekers van uw site… en toch wordt u nog steeds overtroffen door rommelwebsites die het objectief niet verdienen om voor u te verschijnen.

Kortom, je volgt het advies op dat alle top SEO-experts geven, maar je kunt gewoon niet dezelfde hoeveelheid links trekken als sommige van je minder ethische concurrenten. Misschien kunnen we iets leren van die prullenbak die je naar beneden duwt in de SERP’s en beginnen met het kopiëren van hun links.

Een goed voorbeeld van afval in de SERP’s

Om te bepalen hoe sites met een lage waarde kunnen scoren voor concurrerende voorwaarden, gaan we een van de meest verbazingwekkende prestaties op het gebied van SERP-manipulatie ontleden die ik in lange tijd heb gezien – een situatie waarin verschillende miljardenmerken werden gestampt door een site van lage kwaliteit voor enkele van de meest concurrerende (en waardevolle) online voorwaarden.  “Autoverzekering” en “autoverzekering” (en een groot aantal gerelateerde termen).

Kijk eens naar deze zoekresultaten en ik weet zeker dat je de uitbijter kunt zien (hint… ik heb er een kader omheen gezet, er iets naast geschreven en een grote rode pijl getekend die ernaar wijst):

Zoekresultaat autoverzekering

Je hebt het gevonden? Geweldige saus! Daar, mooi op #2 voor een van de zoektermen van de Heilige Graal, precies tussen Progressief en Geico in, was… AutoInsuranceQuotesEasy.com ? Niet de meest betrouwbaar ogende domeinnaam, maar om op de tweede plaats te komen voor autoverzekeringen (en vierde voor ‘autoverzekering’) moet het een indrukwekkende site zijn, toch?

Het zal vast vol zitten met linkbait-inhoud, zoals lijsten met de goedkoopste en duurste auto’s om te verzekeren, lijsten met de duurste steden en staten om een ​​voertuig te verzekeren, rekenmachines voor het bepalen van het juiste verzekeringsbedrag, tips voor het verlagen van uw verzekering tarief, en lijsten van de meest gestolen of vernielde auto’s. Het zal erg aantrekkelijk en super gebruiksvriendelijk zijn. Moet wel, nietwaar?

Een kijkje op de site

AutoInsuranceQuotesEasy.com

Verre van dat – het is een groot formulier voor het vastleggen van leads bovenaan de pagina (aangedreven door Sure Hits), wat tekstinhoud van lage kwaliteit eronder en een enkel navigatie-item (leidend naar de blog van de site). Niks anders.

De blog van de site blijkt niet veel beter te zijn, omdat hij vol staat met slecht geschreven inhoud, waarvan de meeste alleen bestaan ​​om een ​​redelijke hoeveelheid ruimte te creëren tussen herhalingen van trefwoordzinnen.

Als ik een site als deze in een concurrerende niche vind, is mijn eerste gedachte altijd dat het zoekresultaat dat ik zie een anomalie kan zijn. Ik controleerde het met mijn vriend Ian Howells ( @ianhowells  – slimme kerel) en hij zag hetzelfde. Toen heb ik het opgezocht op SEMrush.com, waar ik dit zag:

 

SEM Rush-gegevens voor autoverzekeringquoteseasy.com

Het lijkt erop dat Google is vergeten de prullenbak buiten te zetten

Dit was geen toevalstreffer. In minder dan een jaar was deze site van een nieuw geregistreerd domein (registratiedatum december 2010) naar de top van de zoekberg gegaan en gerangschikt voor enkele van de meest concurrerende online termen. SEM Rush schatte de betaalde zoekwaarde van het door dit domein ontvangen verkeer op meer dan $ 4 miljoen… per maand!

Dat zijn veel krassen die worden gegenereerd door een site die geen enkele van de methoden gebruikt die de meeste toonaangevende SEO-experts momenteel prediken… dus wat geeft het?

Om daar achter te komen, gaan we naar Open Site Explorer en Majestic SEO om nader te bekijken hoe een eenvoudige lead capture-site in staat was om genoeg autoriteit op te bouwen om ‘s werelds beroemdste hagedis met verzekeringen te overtreffen… en wat we ervan kunnen leren om onze sites te helpen hoger in de zoekresultaten te komen.

 

Link Microscoop

Van Majestic SEO was ik in staat om een ​​backlinks-ontdekkingsgrafiek op te halen met geschatte aantallen voor het aantal nieuwe links dat per maand wordt toegevoegd. Het is vrij duidelijk dat deze jongens niet aan het rommelen waren met een conservatieve linksnelheid. Ze gingen er echt achteraan, voegden een aanzienlijk aantal nieuwe links toe aan het begin van de levenscyclus van de site en werden zelfs agressiever vanaf oktober. Deze tweede push correleert vrij goed met de piek in organisch zoekverkeer zoals hierboven weergegeven door SEMrush.

 

Majestueuze SEO Backlink Discovery Chart

We weten dus dat deze site topposities behaalde voor een aantal supercompetitieve zoekwoorden en deze positie enkele maanden vasthield. We weten ook dat het een agressieve linkbuilding-campagne gebruikte. Het is tijd om dieper in te gaan op hoe deze links eruit zagen en waar ze werden geplaatst om te zien of we ze kunnen repliceren.

Na het exporteren van het linkprofiel van AutoInsuranceQuotesEasy.com vanuit OSE, begon ik hun linkprofiel te analyseren, waarbij ik me aanvankelijk richtte op de distributie van ankertekst. Als u naar de onderstaande grafiek kijkt, zult u merken dat de site erg zwaar is gericht op gerichte ankertekst. Hun top 10 meest voorkomende ankerteksten vormden bijna 80% van alle links.

 

ankertekst distributiediagram

 

Binnen de subset van links die gerichte ankertekst bevatten, is er een behoorlijke hoeveelheid variatie, hoewel de overgrote meerderheid van de links een aangepaste vorm van ‘autoverzekering’ en ‘autoverzekering’ bevat. Allemaal interessante informatie, maar voordat we naar deze grafiek keken, wisten we waarschijnlijk allemaal dat de site zou worden gerangschikt op basis van intensief gebruik van ankertekst. Dat zijn geen super bruikbare gegevens — als we in deze ruimte zouden willen concurreren, waren we al van plan om te proberen veel exacte en gedeeltelijke matchlinks te krijgen.

Maar wat als er een gemakkelijke manier was om door deze lijst met links te branden en de links te vinden die supergemakkelijk te kopiëren zouden zijn? Wat als we, zonder een enkele pagina handmatig te hoeven laden, alle blogopmerkingen, blogroll-links, biografieën van auteurs, footer-links, bronnenvakken, linklijsten en privéblog-netwerkberichten zouden kunnen identificeren? Zou dat niet helpen? Zelfs voor de ultra-witte hoeden kan het gebruik van deze aanpak deze goedkope links elimineren en het efficiënter maken om legitieme redactionele links te identificeren die u zou kunnen proberen te matchen.

Linkanalyse een stap verder brengen — Semantische opmaak gebruiken om linktypes te identificeren

Het goede nieuws is dat we snel een berg backlinks kunnen doorzoeken en ze op betrouwbare wijze in groepen kunnen segmenteren. Dankzij de invoering van semantische opmaak in de afgelopen jaren, geven de meeste websites deze informatie graag weg.

“Wat is semantische opmaak?” vragen sommigen van jullie. Het is code die inherent betekenis heeft. Code die zijn eigen doel beschrijft voor de browser (of crawler). In een perfecte wereld betekent dat elementen als

,
en
. Die zijn allemaal beschikbaar in HTML 5. Maar sinds de komst van id- en klassenamen in markup, hebben ontwikkelaars geprobeerd betekenis toe te voegen aan wat anders dubbelzinnige code zou zijn. Het grootste deel van het web is nu gebouwd om er als volgt uit te zien:

Helaas ziet het er niet zo uit:

Mijn spam-ankertekst

Maar er is genoeg betekenis ingebouwd in de meeste id- en klassenamen, zodat we vrij snel kunnen beginnen te onderscheiden wat de meeste elementen betekenen. Wetende dat dit een vrij standaard conventie is, is het niet zo moeilijk om een ​​crawler te bouwen die deze gegevens voor ons analyseert, door elke regel van onze OSE-export te doorlopen. Voor elke inzending zal het (dit wordt een beetje nerdy, dus geduld met mij):

  1. Haal de url op van de pagina die de link naar de doelsite bevat
  2. Zet die informatie om in een Document Object Model (DOM)-object
  3. Voer een xPath-query uit om de link op de pagina te vinden met een overeenkomende href-waarde
  4. Doorkruis de DOM in omgekeerde volgorde, op zoek naar elementen die een klasse- of id-waarde bevatten die overeenkomt met een patroon van het linktype

In niet-geek-taal betekent dit dat we controleren of onze link zich in een container bevindt met een herkenbare id of klassenaam.

De links classificeren

Als het tijdens die terugloop een overeenkomst vindt, kunnen we die link effectief labelen. Dus als onze link in een div met de id “footer” verschijnt, kunnen we dat labelen als een footer-link. Als het in een div of alinea (of een ander element) met de klasse “comment-37268” staat, kunnen we het nog steeds een overeenkomst noemen en er rekening mee houden dat het een reactielink is.

We kunnen een tweede niveau van informatie over commentaarlinks toevoegen door in het DOM te zoeken naar alle externe links op de pagina en het totaal te tellen. Hoe hoger het getal, hoe groter de kans dat de site reacties automatisch goedkeurt.

Als we de pagina niet kunnen ophalen of als we de pagina krijgen maar de link niet meer aanwezig is, kunnen we de link als dood bestempelen.

We kunnen ook enkele eenvoudige domeinovereenkomsten uitvoeren op bekende artikeldirectory’s, webdirectory’s en web 2.0-eigenschappen, hoewel ik voor dit voorbeeld slechts een paar domeinen heb gebruikt voor elk van deze groepen. Met grotere lijsten zouden de “onbekende” linktypes waarschijnlijk kleiner worden.

Met de crawler gebouwd en actief, kon ik de volgende gegevens voor deze site ophalen (dode links verwijderd):

Distributie van linktype

 

Controle krijgen over andere sites

De bovenstaande grafiek geeft een veel duidelijker beeld van hoe deze ranglijsten zijn opgebouwd — blogcommentaar, artikelmarketing en zijbalklinks speelden een grote rol bij het versterken van het linkprofiel van deze site.

Wat hebben die links gemeen? Het is zeer onwaarschijnlijk dat het legitieme redactionele links zijn. In plaats daarvan lijkt het erop dat de ranglijst voor deze site is gebaseerd op ‘link laten vallen’, het proces waarbij gebruik wordt gemaakt van de controle over een onafhankelijke site om uw eigen link te verlaten zonder toezicht of beoordeling.

Aangezien we ongeveer 65% van de live links naar de site automatisch hebben kunnen identificeren, hebben we nu een kleinere onbekende groep om mee te werken. als gevolg hiervan kunnen we enkele van die resterende niet-geïdentificeerde links ophalen voor handmatige beoordeling. En daar zien we edelstenen zoals deze:

Niet bepaald contextuele links

Als we een selectie van deze niet-geclassificeerde links doornemen, zien we een aantal websites zoals deze, die voor een machine eruitzien als contextuele links in het hoofdinhoudsgebied. Dit is duidelijk niet bestand tegen menselijke beoordeling en is een volledig onverdedigbare strategie voor linkbuilding.

We zien ook een aantal links op sites met berichten over een breed scala aan onderwerpen. Ze publiceren vrij vaak nieuwe inhoud en elk bericht bevat links met gerichte ankertekst (naar zeer winstgevende niches).

Dit soort berichten is afkomstig van een van de meest effectieve strategieën voor het laten vallen van links die tegenwoordig werkt: het gebruik van privéblognetwerken. Laten we dus eens kijken hoe we deze links nauwkeuriger per netwerk kunnen classificeren, zodat we er ook op kunnen posten.

De volgende stap: domeinovereenkomsten om privéblognetwerken te identificeren

Effectieve privéblognetwerken zijn gebouwd om geen voetafdruk te hebben. Ze zien eruit als volledig onafhankelijke sites, zijn niet onderling verbonden en hebben geen gedeelde code. Als dit correct is gedaan, delen ze geen IP-adres, Google AdSense-uitgevers-ID of Google Analytics-account. Kortom, ze kunnen niet worden opgemerkt door de inhoud op de pagina te analyseren.

Een echt privéblognetwerk (een volledig eigendom van een bedrijf dat het gebruikt om hun eigen ranglijst te krijgen), is bijna onmogelijk te identificeren. Blognetwerken die openstaan ​​voor betaald lidmaatschap (zoals Build My Rank, Authority Link Network, Linkvana en High PR Society) zijn gemakkelijker te herkennen, maar niet zonder kosten.

De manier waarop we de domeinen in deze netwerken kunnen uitkiezen, is door inhoud te creëren met een gedeelde unieke zin (of een link naar een lokdomein). Zodra deze inhoud is gepubliceerd en geïndexeerd, kunnen we Google doorzoeken op vermeldingen die de doelzin bevatten. Zodra we de lijst met URL’s hebben waar onze inhoud is gepubliceerd, kunnen we de domeinnamen eruit halen en toevoegen aan een matchlijst.

Met links die in groepen zijn ingedeeld, kunnen we nu lijsten exporteren die allemaal dezelfde tactische benadering van duplicatie hebben. Dat maakt het super eenvoudig om deze dingen uit te besteden. Stuur de lijst met blogopmerkingen naar iemand (of een team van mensen) en laat ze beginnen met het matchen van links. Als je bijzonder durft, kun je dit volledig automatiseren met Scrapebox – het hangt allemaal af van je persoonlijke ethiek en risicotolerantie.

Hetzelfde geldt voor webdirectory’s — dit zijn links die met brute kracht kunnen worden verkregen, dus zet goedkopere middelen in om ze te verwerven.

Sidebar-, footer- en blogroll-links zijn hoogstwaarschijnlijk betaalde links, onderdeel van een privé-blognetwerk (hopelijk hebben we de domeinen gevonden en opnieuw geclassificeerd), of mogelijk geldige bronnenlijsten. Contact opnemen met webmasters om erachter te komen wat er nodig is om een ​​link in die gebieden te krijgen, vereist wat meer finesse, maar met een beetje begeleiding kunnen junior teamleden deze taken aan.

Als ze overeenkomen met onze privéblognetwerklijst, kunnen we berichten indienen via die netwerken.

Een woord van waarschuwing

Wees voorzichtig met wie je kopieert. De site waarnaar ik in dit artikel verwees, is al verwijderd door Google (ik zou dit niet hebben gepubliceerd als ze nog steeds op de ranglijst stonden). Ik vermoed dat het een handmatige actie was, aangezien de site een vrij stabiele drie maanden aan de top had (zelfs in het tijdperk van Panda). Google kan gewoon niet toestaan ​​dat sites van lage kwaliteit beter scoren dan merken van miljarden dollars voor termen met een hoge zichtbaarheid, en ik denk dat ze corrigerende maatregelen hebben genomen om een ​​betere gebruikerservaring te creëren voor de zoektermen waarop deze site gerangschikt staat.

Het is mogelijk dat ze dit niet alleen op domeinniveau hebben geïmplementeerd, maar in plaats daarvan de sites die zijn gelinkt aan AutoInsuranceQuotesEasy.com hebben ontdaan van hun bekwaamheid om sap door te geven. Dat zou betekenen dat als u de links van deze site zou dupliceren, u ook failliet zou gaan. Weeg altijd het risico af tegen de beloning en gok NOOIT met de site van een klant zonder (schriftelijke) goedkeuring van hen dat ze zich op hun gemak voelen met het risico om al hun rankings te verliezen.

Wilt u links voor uzelf analyseren? Ik heb je gedekt

Aangezien ik de gegevens heb voor de site die in deze casestudy wordt gebruikt, heb ik natuurlijk de tool gebouwd die werd besproken in het gedeelte “Semantische markeringen gebruiken…” van dit bericht. Voor mijn doeleinden had het geen fancy ontwerp of meervoudig gebruikersbeheer nodig, en ik heb dit bericht BIJNA gepubliceerd zonder de moeite te nemen om die dingen samen te voegen. Gelukkig hebben een paar van mijn vrienden in de SEO-gemeenschap ( Ethan Lyon , Mike King , Dan Shure , Nick Eubanks , Ian Howells ) erop aangedrongen dat ik deze applicatie bruikbaar zou maken voor andere mensen, dus…

U kunt vandaag beginnen met het analyseren van links met Link Detective voor uw eigen projecten.

Als je wilt weten wanneer er nieuwe functies in de applicatie worden geïntroduceerd, volg me dan op @eppievojt op Twitter. Ik zal het ook noteren op mijn (zeldzaam bijgewerkte) persoonlijke website, eppie.net .

Over Eppie Vojt —

Eppie Vojt, directeur SEO bij Red Ventures , is een ervaren digitale marketeer die meer dan tien jaar heeft doorgebracht met het rangschikken van sites in concurrerende verticale markten in natuurlijk zoeken. Hij maakt graag tools die prospectie en competitief onderzoek automatiseren en vereenvoudigen.