SEO har altid været en vanskelig virksomhed, ikke kun eksperter skal bruge tid på at undersøge søgeord og følge de bedste praksis, de skal være forberedt på de ændringer, som søgemaskiner uundgåeligt sætter på plads.

Sidste år så søgegigant Google at lave to store algoritme opdateringer - Panda og Penguin - der så mange et websted plummet ned placeringerne, da de blev straffet af de nye regler.

Dette var fordi ændringerne blev implementeret for at rangordne steder med dårlig kvalitet, såsom indholdsværker og linkbrug, ned og give mere vægt til websteder, der producerer kvalitetsindhold.

Dette sker ved at ændre på, hvordan Googles edderkopper genkender et websted, hvilket giver bedre placeringer til websteder med kvalitet, godt skrevet indhold og socialt medieinddrag. For webprofessionelle skabte dette noget af panik, da statiske websteder, der ikke var særlig velskrevne og fyldte med søgeord, begyndte at mislykkes.

Penguin og Panda opdateringer påberåbte sig et nyt sæt regler og mere komplekse algoritmer designet til at rangere et websted på en række forskellige faktorer.

Disse omfatter:

  • Indhold: Google-edderkopper kan nu fortælle om et websted er dårligt skrevet med stave- og grammatiske fejl, masser af annoncer og link med dårlig kvalitet. Denne ændring ses som en velkommen for mange seo og digitale fagfolk, da den straks banede artikler af dårlig kvalitet og indholdsmøller ned ad rækken, så høj kvalitet kunne tage deres plads og være mere nyttigt for søgemaskiner.
  • Friskhed: "Friskhed" af kopi er blevet mere vigtigt for Google end indgående links. Det betyder, at det for at konkurrere på Google er nødvendigt at tilføje nyt indhold ofte. Friskhedsrangeringen ser på 3 nøgleområder: # 1: Trendende emner som OL eller USA-valg nr. 2: Tilbagevendende berømte begivenheder som Superbowl # 3: Hvor for nylig er indholdet blevet tilføjet.
  • Unikt indhold: nogensinde kopieret og indsat noget indhold på et websted for at skære hjørner? Nu vil det også skære webstedets placering. Originalindhold er et af de vigtigste aspekter ved at bestemme stilling. Indhold indeholdende unaturlige links vil også blive straffet, så det er vigtigt at sikre, at links vises organisk og er meget relevante for indholdet. Dette vil kun blive endnu vigtigere som Googles forfatter rangering tager af.
  • Social: Som mange af jer vil vide, er social den nye markedsføring og er et meget kraftfuldt værktøj til SEO. Google bruger nu socialt i søgeresultater til at bestemme, hvor nyttigt et websted er på tværs af bordet. Det er vigtigt nu for online marketingfolk og SEO-eksperter at inkludere sociale, hvilket sikrer, at alle mærkefarver og logoer er ensartede på tværs af sociale kanaler og hjemmesider. Derudover er det vigtigt, at den sociale tilstedeværelse styres godt; dårligt, botstyret socialt vil skade et websteds placeringer.
  • Fri for tekniske fejl: Dette er især vigtigt for webprofessorer, og det vil uden tvivl banke mange blogsider ud af øverste aborre. Et websted med en lydarkitektur vil fungere bedre end et websted, der er bygget ud af skabeloner, Flash eller er mere end to år gammel. Dette betyder at kode skal være standardbaseret med gyldige CSS-tags og ryddelige metadata.

Hvordan man løser problemer med et websites placering

Selv nogle af de største websteder blev påvirket af ændringerne i Google-algoritmer, jeg læste om en, der skulle fjernes lige tilbage for at ændre alle søgeordene og kopiere sider.

Et websted, der er dårligt skrevet, skal have alt indhold opdateret, helst af en, der kan skrive. Dette omfatter blogindlæg og artikler, så hvis et websted har masser af indhold som dette, kan det være en bedre ide at fjerne alt fra webstedet og tilføje som du får det eller andet indhold, skrevet.

Metadata skal også være rene og ryddelige, og Google har tendens til at ignorere søgeord og koncentrere sig om beskrivelser her. Nøgleord selvfølgelig har stadig deres plads, og det er vigtigt at sikre, at disse stadig undersøges og analyseres, men artikler og blogs med høj søgeordstæthed vil sandsynligvis blive straffet. Dette skyldes, at søgeord, når det er overbrugt, har tendens til at kompromittere kvaliteten af ​​skrivningen.

Panda koncentreret sig om at slippe af med de websteder, der forsøgte at "trick" sine algoritmer med overforbrug af nøgleord og link spamming. Hvis du har fastslået, at et websted har spam links, der peger på det, skal du bruge Googles Disavow Tool , som vil fjerne dem for dig. Det er imidlertid vigtigt på nuværende tidspunkt at bemærke, at en omhyggelig siderevision skal udføres for at identificere dårlige links, og det skal være forsigtigt at bruge værktøjet.

For Panda er det også værd at kontrollere, at et websteds indhold er unikt; den skal være 60% unik på hele webstedet, så vel som tilgængelig, for at kunne bestå Panda's regler.

Penguin koncentreret mere om det faktiske indhold, og begge algoritmer opdateres stadig regelmæssigt for at forbedre dem. For det meste koncentrerer Penguin sig primært på søgeordspuffing inden for artikler og spamforbindelser.

I det væsentlige er de både bekymret over tilgængelighed, indhold, spammingsteknikker og nye regler, der er designet til at forhindre sort hat SEO.

Hvad er sort hat SEO?

Dybest set er dette en måde at forsøge at manipulere søgemaskinerne på, så det i virkeligheden 'tricks' dem til at tro, at et websted er værdifuldt. Sort hat bruger aggressiv taktik og er rettet mod søgemaskinen, snarere end et menneskeligt publikum.

I løbet af de kommende artikler vil jeg se på sorte, hvide og gråhatteteknikker for at give et klart overblik over, hvilke kan bruges sikkert og hvilke er et nej-nr. Problemet, som mange har fundet, er, at nogle, mindre end velrenommerede, SEO 'eksperter' har brugt sort hat teknikker for at vinde flere kunder og gøre et hurtigt penge. Det er derfor, at nogle forretningssteder er faldet som en sten ned ad placeringerne, ofte uvidende om, at de har gjort noget galt.

Black hat teknikker omfatter:

  • pakningskode med 'skjult' tekst ;
  • link gårde, hvor en gruppe af websteder alle linker til hinanden for at spam indekset for en søgemaskine;
  • blog spam, ved hjælp af kommentarfeltet på blogs og fora til at placere links til andre websteder;
  • skrabning, en praksis hvor et websted tager indhold fra en anden for at blive mere værdifuld for søgemaskinerne
  • døråbningssider, der anvendes med det formål at lokke søgere med sætninger, der ikke er relateret til indholdet af websteder
  • parasitisk hosting , hvor et websted er vært på en andens server uden tilladelse;
  • cloaking, en teknik, hvor søgemaskinens edderkop ser andet indhold til slutbrugeren, der ser gennem en browser.

Black hat metoder ses af mange web-fagfolk at være uetiske, da de bruger taktik, der lover hurtige afkast, men løber chancen for at skade et virksomheds omdømme, hjemmeside og til gengæld overskud.

Brug af sort hat metoder betyder ofte, at et websted ikke behøver at vente måneder for link backs, som du ville med traditionelle hvide hat metoder. Men det fylder også internettet med ubrugelige oplysninger og spam, og gennem årene har det alvorligt påvirket søgningen.

Det er også billigere for SEO strategen at udføre så ofte, et blog-netværk er allerede oprettet for at linke til, og det afhænger ikke meget af analytik og indhold, som hvid hat praksis gør.

Ikke alene indebærer brugen af ​​sorthat metoder ofte truslen om retssager, hvis de bruges sammen med en PPC-kampagne, kan der opstå store straffe fra reklameværten.

Det anbefales ikke, at et websted bruger sorte hatteknikker på grund af de involverede sanktioner, hvad angår retssager, omdømme og trussel om ikke rangordning. Men uden tvivl vil det ikke stoppe alle, på trods af Google-opdateringerne.

Når vi siger at vi allerede ser indholdsfabrikker, der hurtigt falder ned i placeringerne, så opdateringerne naturligvis virker, da dette er et af de nøgleområder, som Google ønskede at tage fat på.

Google og alle de store søgemaskiner har en vision, en som har til hensigt at rydde op på internettet og gøre væk med dårlige fremgangsmåder, hvilket fører til mere nyttigt indhold, der vises øverst på at søge efter os alle. Uanset om du bruger sort hat teknikker eller ej, er det mellem dig og din samvittighed, men bestemt er jeg glad for evnen til at søge og ikke komme med en side fuld af junk, før jeg kommer til det, jeg vil have.

Hvilke problemer har du på grund af Panda og Penguin? Hvordan har du løst blackhat-teknikker ansat af forgængere? Lad os vide i kommentarerne.

Fremhævet billede / miniaturebillede, søge billede via Shutterstock.