Håndtere ondsinnet spam - Øvelse fra Semalt

Bots har ikke den beste merittlisten. De er raske og overgår antallet menneskelige besøkende på et nettsted. Michael Brown, kundesuksessjefen for Semalt , advarer om at roboter synes det er lett å fiske ut sårbare nettsteder med den hensikt å angripe dem, spamme kommentarsystemer og forårsake forvirring i trafikkrapporteringssystemene. Tilstrømningen av ondsinnede henvisninger blir et alvorlig problem, og Google-trender indikerer at problemet øker eksponentielt.

Googlebot er en god bot

Hovedformålet med en bot er å automatisere oppgaver og skjule seg som besøkende. De skraper kildekoder, samler inn data og utfører funksjoner som svar på det de finner. Så mye som dette høres ondsinnet ut, er imidlertid ikke alle dårlige. Google-bot gjør sin tilstedeværelse kjent for brukere og hjelper til med å stille nettsteder i kø på SERP. Noen roboter utnytter dette og bruker falske agentstrenger slik at det ser ut som om de stammer fra denne botten.

Dårlige roboter og henvisings spam

Dårlige bots plagierer innholdet på nettstedet, stjeler brukerinformasjon, klikksvindel på juridiske annonser og roter bort rapporter generert av Google Analytics. Den siste varen på denne listen har mange implikasjoner for et nettsted. Det er resultatet av forskjellige ondsinnede applikasjoner av henvisningsspam. For eksempel forvrenger de trafikkdataene fra inflasjonen de skaper, lurer brukerne til å besøke nettstedene som vises i Google Analytics-rapporter, som lar dem opprette koblinger tilbake. Siden de kommer skjult som legitim trafikk, klarer de å skjule henvisningene.

Henvisings spam har 100% avvisningsfrekvens og begrensede tider på siden, noe som har en tendens til å skjule data i rapportene. Følgelig er sluttproduktet av disse rapportene stort sett ugyldig. Med årene har roboter blitt mer sofistikerte.

botnet

Hackere bruker botnettene til å utføre komplekse angrep. Et botnet er et nettverk av roboter som gjør det vanskelig å spore og svarteliste IP-er. Det blir vanskelig å beskytte et nettsted når de bruker distribuert benektelse av tjenesten. Når man opprører eller blokkerer en, vokser flere andre på plass.

Spøkelseshenvisninger

De fleste nettsteder har for øyeblikket Google Analytics-koden hardkodet i seg. Henvisningsboter kan skrape den unike UA-koden fra kildekoden og bruke den til å spore nettstedet. Fra da av blir det mulig å sende informasjon til GA, uten å måtte besøke. De drar fordel av Google Analytics måleprotokoll, som ikke diskriminerer data som kommer til den.

Stoppe spøkehenvisningssøppel

Brukere kan ignorere spøkelseshenvisninger og gjenopprette integriteten til dataene som brukes i trafikkrapporter. Et vertsnavnfilter er en måte å gjøre dette på, ettersom det sikrer at det bare tar hensyn til informasjon fra gyldige nettsteder. Med et slikt tiltak på plass gjenspeiles ikke alle spøkelseshenvisninger fremover, i den analytiske rapporten. Det er ikke en permanent løsning, ettersom hackere får vind av kontratiltakene som er satt i verk.

Blokkerer vanlig henvisningssøppel

I de fleste tilfeller rapporterer nettsteder aktivitet med automatiske boter på nettstedet deres. Disse er mer kontrollerbare ved bruk av tradisjonelle metoder for å blokkere spam. Hvis man velger å bruke Google Analytics, kan prosessen være lang og uttømmende. Et automatisk blokkeringsprogram er Sucuri Website Firewall, med muligheten til tilpassede regler etter brukerens preferanser.

Konklusjon

Det 21. århundre tok opp spørsmålet om lagdelt sikkerhet. Noen ganger er det irriterende å måtte håndtere spam. Imidlertid bør folk begynne å bli vant til å iverksette tiltak for å sikre at de beskytter dataene sine på alle måter.